Compare commits

..

2 Commits

Author SHA1 Message Date
261a603dfd [obsidian] vault backup: 2025-06-12 14:29:38[
Some checks failed
Build / build (push) Failing after 9m33s
2025-06-12 14:29:38 -04:00
fe0c741240 [obsidian] vault backup: 2025-06-12 13:28:59[ 2025-06-12 13:28:59 -04:00
10 changed files with 204 additions and 1 deletions

View File

@@ -0,0 +1,7 @@
---
date: 2025-06-12 10:02
---
#stub
[Home | CERN Open Hardware Licence](https://cern-ohl.web.cern.ch/home)

4
content/Garnet Hertz.md Normal file
View File

@@ -0,0 +1,4 @@
---
date: 2025-06-12 14:24
---
#person

View File

@@ -0,0 +1,8 @@
---
date: 2025-06-12 14:25
---
#notion
[The Center for Generative Justice](https://generativejustice.org/)

View File

@@ -333,7 +333,7 @@ sine1=nil
SCはコンパイルされたUGenどの順番で実行されるかが一列にソートされて順番に実行されていくけど、Arcoは必ずしもそうじゃない部分的には並列化もできるのかな
遅いレートのイベントストリームの取り扱いをどうすればいいんだろう
遅いレートのイベントストリームの取り扱いをどうすればいいんだろう - [probe](https://github.com/rbdannenberg/arco/blob/main/doc/ugens.md#probe)命令があるのか
うーん、こう見ると、[[UGenの生成をスクリプトから命令列に変換する]]のが重要なのかな
@@ -345,6 +345,91 @@ SCはコンパイルされたUGenどの順番で実行されるかが一列に
## A Bidirectionally Stacking Loudspeaker Enclosure Design for Wave Field Synthesis
[[Rhode Island School of Design]]
[GitHub - risdsound/wfs: An open-source, modular loudspeaker enclosure system for Wave Field Synthesis (WFS), developed at the Studio for Research in Sound and Technology (SRST) at Rhode Island School of Design (RISD).](https://github.com/risdsound/wfs)
## Composing for AI Voice Model Choir
[[Nick Collins]]
人の声を出すモデルに、全然関係ないソースをぶち込む
メルツバウの音楽でテイラースイフトの声のモデルを駆動するとか
[Music for Celebrity AI Voice Model Choir | Nick Collins | sick lincoln](https://sicklincoln.bandcamp.com/album/music-for-celebrity-ai-voice-model-choir)
Danger of Revisionism
## Explorations In Augmented String Instrument Design: A Conversation With Mentors Of Musical Innovation
後藤さんて電気バイオリン作ってたんだ
[Project MUSE - The Aesthetics and Technological Aspects of Virtual Musical Instruments: The Case of the SuperPolm MIDI Violin](https://muse.jhu.edu/article/585450)
DMIとかAugumented Instrumentのデザインプロセスをどう語るかに参考になりそうな感じはする
## Acoustic Wave Modeling with 2D FDTD: Applications in Unreal Engine for Dynamic Sound Rendering
[[Bilkent Samsurya]]
ゲームメーカーで働いてるけど研究者としてはインデペンデントらしい
レイトレベースのリバーブだと低域厳しいですよね
[[時間領域有限要素法|FDTD]] 使いましょう
- Unreal上でプリプロセスして、
- PythonでFDTDシミュレーション
- クアドラマイクでスイープ録音したのをIRに逆畳み込み
- Unrealに戻ってIRに反映
聴取点が動いたらどうなるのかな
低域の改善は実際のとこどうなんでしょう
---
## Wax: Flow-based Audio Programming in the Web Browser
[[Wax]] にまとめて書いた
[[Michael Cella]] [[Anıl Çamcı]]
---
## An Approach to Creating Unalienated Music Technology
[[David Minnix]] [[Anıl Çamcı]]
Unalianatedねえ
Problem of High-Tech
Climate impact of computing
[[サーキットベンディング]]とサスティナビリティ [Circuit Bending and Environmental Sustainability: Current Situation and Steps Forward · NIME 2022](https://nime.pubpub.org/pub/025d4cv1/release/1)
[[ゾンビ・メディア]]の話でもあるね
[[PermaComputing]]
[[Generative Justice]] なるほど
disused mobile devices で動く楽器を作る
ライブラリ[[Algae]]を作って、アプリ[[Firedot]]を作った
Algae:まあよくある信号処理C++ライブラリな気がする
なぜこのライブラリを作る必要があったんだろうか(なるべく依存性を減らすというのはわかるけど)
AndroidとSDL2.0 /
パーマコンピューティングならuxnエコシステムの方が上手くいってるようにも見えるな

8
content/Michael Cella.md Normal file
View File

@@ -0,0 +1,8 @@
---
date: 2025-06-12 10:32
---
#person
[nnirror (Michael Cella) · GitHub](https://github.com/nnirror)
[[Wax]]とか[[facet]]とか作ってる

45
content/Wax.md Normal file
View File

@@ -0,0 +1,45 @@
---
date: 2025-06-12 10:31
---
#computermusic #visual-language #programming-language
[GitHub - nnirror/wax: Web-based audio patching environment](https://github.com/nnirror/wax)
WebAudioベースのグラフィカルデータフロープログラミング環境
[[Michael Cella]]
[wax](https://wax.bz)
---
ICMC2025のトーク
- ビジュアル言語だと一定以上の複雑さを扱えない
- ライブコードだと自分が今何やってるのかを把握できなくなってくる
[[facet]]を同梱しているので、Webベースで両方やれる
[[RNBO]]のパッチからWaxのデバイスオブジェクトにできるなるほどね
アプリケーション
- モバイル
- マルチチャンネル
- 教育
スマホを[[ES9]]に繋いでマルチチャンネルか
真面目にユーザーフィードバックをとった 7人
ざっくりとした制作の指示をして、フィードバックを募った
メタオペレーション
サブパッチがWebAudioだと難しいという問題
---

8
content/facet.md Normal file
View File

@@ -0,0 +1,8 @@
---
date: 2025-06-12 10:32
---
#programming-language
[[Max]]上で動作するJSベースのライブコーディング用スクリプティング言語
[GitHub - nnirror/facet: Live coding and synthesis with NodeJS and a browser](https://github.com/nnirror/facet)

View File

@@ -0,0 +1,4 @@
---
date: 2025-06-12 14:23
---
#stub

View File

@@ -0,0 +1,6 @@
---
date: 2025-06-12 14:24
---
#notion
[[Garnet Hertz]] and [[Jussi Parikka]]

View File

@@ -0,0 +1,28 @@
---
date: 2025-06-12 13:32
---
#memo #computermusic #notion
Perceptual (Pseudo-Direct) Manipulation
オーディオの領域においては、厳密な意味での[[Direct Manipulation]]は存在しない。
GUIベースのオーディオ操作ソフトは、イラストレーターの図のように出力される結果を直接操作しているわけではなく、音を生成するシステムのメタファーを直接操作している。
ただ、「直接」と呼ぶに値するワークフローとして、[[Auto-Tune]]のようなインタラクティブなピッチ補正のシステムが挙げられる。
これは、厳密に表現をするのであれば、
- 一度オーディオからピッチを分析して、
- そのピッチのカーブをGUIで編集し、
- - ピッチカーブの差分データと元のオーディオデータを組み合わせて、望ましいピッチを出力するようなオーディオデータを逆方向に計算
しているのだと言える。
では、このワークフローをピッチ分析以外にも、リバーブの量であったり、和音の種類だったり、声の明るさのような、より複雑なデータに対しても適用できないだろうか?
幸いにも機械学習分野でのさまざまな研究をもとにして、[[Variational Autoencoder]](VAE)を応用すればこの仕組みに近いことができるはずだ。