[obsidian] vault backup: 2025-06-12 14:29:38[
Some checks failed
Build / build (push) Failing after 9m33s

This commit is contained in:
2025-06-12 14:29:38 -04:00
parent fe0c741240
commit 261a603dfd
7 changed files with 149 additions and 0 deletions

4
content/Garnet Hertz.md Normal file
View File

@ -0,0 +1,4 @@
---
date: 2025-06-12 14:24
---
#person

View File

@ -0,0 +1,8 @@
---
date: 2025-06-12 14:25
---
#notion
[The Center for Generative Justice](https://generativejustice.org/)

View File

@ -369,3 +369,67 @@ Danger of Revisionism
DMIとかAugumented Instrumentのデザインプロセスをどう語るかに参考になりそうな感じはする
## Acoustic Wave Modeling with 2D FDTD: Applications in Unreal Engine for Dynamic Sound Rendering
[[Bilkent Samsurya]]
ゲームメーカーで働いてるけど研究者としてはインデペンデントらしい
レイトレベースのリバーブだと低域厳しいですよね
[[時間領域有限要素法|FDTD]] 使いましょう
- Unreal上でプリプロセスして、
- PythonでFDTDシミュレーション
- クアドラマイクでスイープ録音したのをIRに逆畳み込み
- Unrealに戻ってIRに反映
聴取点が動いたらどうなるのかな
低域の改善は実際のとこどうなんでしょう
---
## Wax: Flow-based Audio Programming in the Web Browser
[[Wax]] にまとめて書いた
[[Michael Cella]] [[Anıl Çamcı]]
---
## An Approach to Creating Unalienated Music Technology
[[David Minnix]] [[Anıl Çamcı]]
Unalianatedねえ
Problem of High-Tech
Climate impact of computing
[[サーキットベンディング]]とサスティナビリティ [Circuit Bending and Environmental Sustainability: Current Situation and Steps Forward · NIME 2022](https://nime.pubpub.org/pub/025d4cv1/release/1)
[[ゾンビ・メディア]]の話でもあるね
[[PermaComputing]]
[[Generative Justice]] なるほど
disused mobile devices で動く楽器を作る
ライブラリ[[Algae]]を作って、アプリ[[Firedot]]を作った
Algae:まあよくある信号処理C++ライブラリな気がする
なぜこのライブラリを作る必要があったんだろうか(なるべく依存性を減らすというのはわかるけど)
AndroidとSDL2.0 /
パーマコンピューティングならuxnエコシステムの方が上手くいってるようにも見えるな

View File

@ -8,3 +8,38 @@ date: 2025-06-12 10:31
WebAudioベースのグラフィカルデータフロープログラミング環境
[[Michael Cella]]
[wax](https://wax.bz)
---
ICMC2025のトーク
- ビジュアル言語だと一定以上の複雑さを扱えない
- ライブコードだと自分が今何やってるのかを把握できなくなってくる
[[facet]]を同梱しているので、Webベースで両方やれる
[[RNBO]]のパッチからWaxのデバイスオブジェクトにできるなるほどね
アプリケーション
- モバイル
- マルチチャンネル
- 教育
スマホを[[ES9]]に繋いでマルチチャンネルか
真面目にユーザーフィードバックをとった 7人
ざっくりとした制作の指示をして、フィードバックを募った
メタオペレーション
サブパッチがWebAudioだと難しいという問題
---

View File

@ -0,0 +1,4 @@
---
date: 2025-06-12 14:23
---
#stub

View File

@ -0,0 +1,6 @@
---
date: 2025-06-12 14:24
---
#notion
[[Garnet Hertz]] and [[Jussi Parikka]]

View File

@ -0,0 +1,28 @@
---
date: 2025-06-12 13:32
---
#memo #computermusic #notion
Perceptual (Pseudo-Direct) Manipulation
オーディオの領域においては、厳密な意味での[[Direct Manipulation]]は存在しない。
GUIベースのオーディオ操作ソフトは、イラストレーターの図のように出力される結果を直接操作しているわけではなく、音を生成するシステムのメタファーを直接操作している。
ただ、「直接」と呼ぶに値するワークフローとして、[[Auto-Tune]]のようなインタラクティブなピッチ補正のシステムが挙げられる。
これは、厳密に表現をするのであれば、
- 一度オーディオからピッチを分析して、
- そのピッチのカーブをGUIで編集し、
- - ピッチカーブの差分データと元のオーディオデータを組み合わせて、望ましいピッチを出力するようなオーディオデータを逆方向に計算
しているのだと言える。
では、このワークフローをピッチ分析以外にも、リバーブの量であったり、和音の種類だったり、声の明るさのような、より複雑なデータに対しても適用できないだろうか?
幸いにも機械学習分野でのさまざまな研究をもとにして、[[Variational Autoencoder]](VAE)を応用すればこの仕組みに近いことができるはずだ。