Files
quartz-research-note/content/ICMC2025 ペーパーセッション聴講メモ.md
松浦 知也 Matsuura Tomoya 8faae4d8c4
Some checks failed
Build / build (push) Failing after 13m40s
[obsidian] vault backup: 2025-06-12 19:04:21[
2025-06-12 19:04:21 -04:00

485 lines
15 KiB
Markdown
Raw Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
date: 2025-06-09 09:25
---
#memo
## Interactive Music Co-Creation with an Instrumental Technique-Aware System: A Case Study with Flute and Somax2
[[Somax2]]
## Prototyping Digital Musical Instruments in Virtual Reality
VR内でのプロトタイピング。現実空間でのプロトタイプがゴミめっちゃ出るというところを起点にしてるのは、本当かみたいな気がする
tactilityがないのは厳しいですよね、そりゃそう
[[Frugal innovation]]ね
Questのコントローラーに磁石つけて擬似触覚的な機能を持たせる
スケッチ→モデリング→Audio Design→ファブリケーション実際にはいろんな行き来がある
何を使うか
- [[TinkerCad]]
- [[PureData]] / [[MetaSounds]] / [[Max]]
- [[Unity]]&[[LibPd]]
- [[Steam Audio]] for Spatialization
- Meta Quest2
例えば、加速度メーターとボタンの楽器のデモを3Dモデルを作ってからVR空間でまず試す
6人で実験 Pdパッチやモデルはあらかじめテンプレートを渡す
---
## PyChiro: Real-Time Gesture Recognition System Supporting the Kodály Chironomic Method in Music Education, Therapy, and Performance
カメラをベースにした手のジェスチャーインタラクションシステム
ハンガリーにある[Kodály method](https://en.wikipedia.org/wiki/Kod%C3%A1ly_method)
[[コダーイ]]っていうのね
[コダーイ・コンセプト 日本コダーイ協会](http://kodaly.jp/concept/)
音程を表すハンドサインがあるらしい
[The Kodaly Method: Fun hand-signing Games for young Musicians](https://mobilemusicschool.ie/kodaly-method-music-games/)
オクターブが腕の角度で変わるけど、それも検出
## VibroTempo: Feel the Beat with Vibrational Metronomes for Musicians
振動メトロノーム
アクセント付きで鳴らせる 目的としては音楽教育っぽい
アクセント付きビートとかだと伝統的なメトロノームと結果が変わってくる
## ZAP!: Bio-Inspired Large-Scale Multimedia Installation
電気ウナギにインスパイアされたサウンドインスタレーション
[[バイオミミクリー]]
## Music102: An D12-equivariant transformer for chord progression accompaniment
群論をコード進行の表現に使う
シューアの補題
[2410.18151 Music102: An D12-equivariant transformer for chord progression accompaniment](https://arxiv.org/abs/2410.18151)
結局メロディーの中からコード進行を抽出するっていうのでいいのかな
---
## AI音楽パネル
### 中央音楽学院CCOM
AI音楽だけでセンターができてる中にラボが6つあるとか
規模的にかなわんわー
モデル構築も作品制作もやってる ロボット音楽みたいなのも結構ある
[CENTRAL CONSERVATORY OF MUSIC](https://en.ccom.edu.cn/)
MUSIC Demixing challenge の2023もトップ取ったとか
diffusionモデルで音から弦の左手のポジションを推定Vtuberとかには便利そうだな
### Lamberto Coccioh
Music and Technology at Royal Birmingham Conservatoire (RBC), Birmingham City University
Ontlogical paradox of artificial intelligence in musical composition
何のために生成AI音楽を作るのか作るとは何なのか
framing AI through technological determinism
生成AIが与えうるインパクトを理解しきれないまま作ってる面があるのでは
radical other form of agency
animist entitiesなのではという妖精
AI as machine vs AI as person
paradoxes:
- 現状のAIは資本主義の産物であるという問題
- 人間のcognitionとは関係がないこと
- AI exploits and automates creativity but cannot be controlled
"controlled emergence"
トレーニングデータの制限
結構ラディカルに規制派だな
Biocultural Diversity
言語の絶滅にどう対策をするか?に似ている
"Safeguarding creativity for future generation"
### Carlos Arana
the University of Buenos Aires / Barklee College
AI in Music: A Pedagogical Approach for Productive and Responsible Music
Music work lifecycle (含むconsumption)のいろんなところでAIが使えるよねということ
pedagogical approach :task - technology - application - evaluation
4 week course AI for music and audio (barklee online)
例えば音源分離なら、一通り原理を学び、実際のアプリとかも使い、その後これらをどう使うか?について評価する これをあらゆる分野でやる
LANDRとかSunoとかMagentaみたいなのを一歩引いてみるのを教育として持ち込んでるのは面白いなあ
telent/hit-song detectionとかまでカバーしてるのかあ
倫理・法の面もカバーする
### Marc Battier
knowledge is cumulative / implicit knowledges are easily lost.
シュトックハウゼンのKthinka's Gesangのアシスタントを務めたのは誰か、フランソワ・ベイルのアシスタントは誰か聞いてみたけど、当然間違った答えを返した
信頼できないだけじゃなくて、ミスリーディングである
コンピューター音楽の作曲における暗黙知とは何か、それらをなるべく構造化していくこと
EMSAN [[Electroacoustic Music Studies Asia Network]]
アジアで作られた電子音楽を集めるデータベースを作った
[EMSAN: The Electroacoustic Music Studies Asia Network](http://emsan.lib.ntnu.edu.tw/about.jsp)
### Georg Hajdu
Healing Soundscape
style-agnostic なヒーリング音楽ね、、、
ゲシュタルト心理学
音の”ブーバ”化(角が取れるみたいなことかな、、、)
𰻞
ラテントスペース使ってるよってことね
### Kenneth Fields
University of China Academy
Chronotechnics
ネットワーク音楽をずっとやってる人っぽい
全然AI関係なさそう、、なんで選ばれた
Netronomia
[NetronomiaII by Ken Fields](https://rdmc.nottingham.ac.uk/handle/internal/11989)
---
## Then and now Musical needs and Intelligent Tools
[[Miriam Akkermann]]
[[Research in music and artificial intelligence]] -- [[Curtis Roads]]
More than imitation
how should we evaluate the creativity of human-like and superhuman?
how do we evaluate what is accomplished by the specific tools?
need for new classification systems
---
## Anger at the Asteroid: From Exhibition to Ensemble Performance
[[Courtney Brown]]
恐竜の鳴き声をいろんな形で作り続けているっぽい
[Rawr! A Study in Sonic Skulls: Embodied Natural History](https://www.nime.org/proc/cbrown2015/index.html)(2015のNIME)
初期は人口声帯で作ってたけど途中でDSPに変えたのかな
[About Dinosaur Choir](https://dino.courtney-brown.net/about/)
Raspberrypi単品だとレイテンシーが微妙だった
## Dynamic Generalized Parametric Control of Digital Music Instruments
[[Eric Lyon]] Virginia University
VSTのパラメーター補完プリセット同士のinterpolation?
"preset is just one data point in the set of all possible sonic configurations"
2つのプリセットだったらスライダーで変えればいいよね
どんなVSTでも使える
[[Max]]の`vst~`を使う
補完はJSで実装
それ以上ならlatent spaceの探索みたいな話そうっぽい
- Int.lib([[Oli Larkin]])
- j74 Morph [f a b r i z i o p o c e | J 7 4](https://www.fabriziopoce.com/morph.html)
- Arturia Polybruteにもそういう機能がある
## Womens Labor: Weaving it all Together
[[Margaret Schedel]]
domestic tools as musical instruments
[[Bag theory]] : first human cultural product
これまでやったこと色をwekinatorで画像認識/重さセンサー
Woven Scores
phryamework 布と導電布でスピーカー作る
create new community through workshop
質問アクティビズムでもあり、ハイテックでもある不思議な位置付けだけどどこが先に来たのかそのまんま、コミッションのオーダーとしてNIMEとフェミニズムのテーマでなんかやるというのがあった
## CAFFEINE: Collaborative Affordable Framework For Experiments in Interactive Networked Electronics
[[Scott Petersen]] Yale University
学部生の合同プロジェクトっぽい [[ソニフィケーション]]のためのシステム?
ハード+ソフトのフレームワーク
caffeine pods 無線、バッテリー駆動
many-pods one-broker many clients
[[esp32-s3]] devkit C 超音波距離センサー、Groveサウンドセンサー、光センサー
ブローカーはPython、ソニフィケーションは[[SuperCollider]]
## A Real-Time Gesture-Based Control Framework
MaxとPythonの相性悪い問題とはいえここでもPythonとOSCで連携してるらしい
ジェスチャー認識をMaxでもやりたい
- Rapidmax
- MuBu
- Gimlet
- Gestural Sound Tolkit
[[MediaPipe]]使ったらしい
リアルタイム・フルボディ
[[Wekinator]]みたくオンライン学習できるのが強み
## Arco : A Flexible Audio Processing Framework
[[Roger Dannenberg]]
ブロックサイズをあげていった時に、オールオーディオレートで処理した時の処理負荷の谷が8サンプルの時に来る
[[O2]]メッセージのフォーマットだとこれで、
```
/arco/fmosc/new ID chans input1 input2 ...
/arco/free ID
```
ハイレベルのAPIだとこう
```
sine1 = sine(440,0.01).play()
sine1=nil
```
リアルタイムのUGen増やす、減らすもできる
[[Nick Collins]]からの質問SuperColliderとの違い
SCはコンパイルされたUGenどの順番で実行されるかが一列にソートされて順番に実行されていくけど、Arcoは必ずしもそうじゃない部分的には並列化もできるのかな
遅いレートのイベントストリームの取り扱いをどうすればいいんだろう - [probe](https://github.com/rbdannenberg/arco/blob/main/doc/ugens.md#probe)命令があるのか
うーん、こう見ると、[[UGenの生成をスクリプトから命令列に変換する]]のが重要なのかな
## Functional Iterative Swing: An Open Framework for Exploring Warped Ramps, Exponential Rhythm, and Euclidean Shuffle
スイングを数学的に考えよう
リズムのグリッドを切るための直線的なライン(`y=x`)があったとして、それを`y = n^x`で捻じ曲げていくとスイングに近いものが作れるのではないか
## A Bidirectionally Stacking Loudspeaker Enclosure Design for Wave Field Synthesis
[[Rhode Island School of Design]]
[GitHub - risdsound/wfs: An open-source, modular loudspeaker enclosure system for Wave Field Synthesis (WFS), developed at the Studio for Research in Sound and Technology (SRST) at Rhode Island School of Design (RISD).](https://github.com/risdsound/wfs)
## Composing for AI Voice Model Choir
[[Nick Collins]]
人の声を出すモデルに、全然関係ないソースをぶち込む
メルツバウの音楽でテイラースイフトの声のモデルを駆動するとか
[Music for Celebrity AI Voice Model Choir | Nick Collins | sick lincoln](https://sicklincoln.bandcamp.com/album/music-for-celebrity-ai-voice-model-choir)
Danger of Revisionism
## Explorations In Augmented String Instrument Design: A Conversation With Mentors Of Musical Innovation
後藤さんて電気バイオリン作ってたんだ
[Project MUSE - The Aesthetics and Technological Aspects of Virtual Musical Instruments: The Case of the SuperPolm MIDI Violin](https://muse.jhu.edu/article/585450)
DMIとかAugumented Instrumentのデザインプロセスをどう語るかに参考になりそうな感じはする
## Acoustic Wave Modeling with 2D FDTD: Applications in Unreal Engine for Dynamic Sound Rendering
[[Bilkent Samsurya]]
ゲームメーカーで働いてるけど研究者としてはインデペンデントらしい
レイトレベースのリバーブだと低域厳しいですよね
[[時間領域有限要素法|FDTD]] 使いましょう
- Unreal上でプリプロセスして、
- PythonでFDTDシミュレーション
- クアドラマイクでスイープ録音したのをIRに逆畳み込み
- Unrealに戻ってIRに反映
聴取点が動いたらどうなるのかな
低域の改善は実際のとこどうなんでしょう
---
## Wax: Flow-based Audio Programming in the Web Browser
[[Wax]] にまとめて書いた
[[Michael Cella]] [[Anıl Çamcı]]
---
## An Approach to Creating Unalienated Music Technology
[[David Minnix]] [[Anıl Çamcı]]
Unalianatedねえ
Problem of High-Tech
Climate impact of computing
[[サーキットベンディング]]とサスティナビリティ [Circuit Bending and Environmental Sustainability: Current Situation and Steps Forward · NIME 2022](https://nime.pubpub.org/pub/025d4cv1/release/1)
[[ゾンビ・メディア]]の話でもあるね
[[PermaComputing]]
[[Generative Justice]] なるほど
disused mobile devices で動く楽器を作る
ライブラリ[[Algae]]を作って、アプリ[[Firedot]]を作った
Algae:まあよくある信号処理C++ライブラリな気がする
なぜこのライブラリを作る必要があったんだろうか(なるべく依存性を減らすというのはわかるけど)
AndroidとSDL2.0 /
パーマコンピューティングならuxnエコシステムの方が上手くいってるようにも見えるな
高校生向けワークショップ
質問高校生にやる時にこういうエシカルな側面をどうやってWSに含めるよ
## Fractional Fourier Sound Synthesis
[[Rodrigo F. Cadiz]]
[\[2506.09189\] Fractional Fourier Sound Synthesis](https://www.arxiv.org/abs/2506.09189)
https://cordutie.github.io/frft_sound_synthesis/
[[分数次フーリエ変換]]
そんなのあるのか、、、、
![{\displaystyle {\mathcal {F}}_{\alpha }(f)(\omega )={\sqrt {\frac {1-i\cot(\alpha )}{2\pi }}}e^{i\cot(\alpha )\omega ^{2}/2}\int _{-\infty }^{\infty }e^{-i\csc(\alpha )\omega t+i\cot(\alpha )t^{2}/2}f(t)\,dt~.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b3bd8c85bf549680c0dd243b2ff9a5c32f273e2a)
時間0→周波数(1)ドメインの中間地点というものを考えてみれば良いx軸に時間軸をとり、y軸に周波数をとり、その回転を考える
単位に相当するものが存在しない
ノイズ除去とか圧縮には使われてたけど、合成には特に使われていない
まあ単純に聴感上面白くはあるなというか、この遠回りな方向でなければ出なさそうな音がする
変換した空間でフィルターをかける
STFTみたいにウィンドウかけて処理するからなんともいえないなー、非リアルタイムの方が色々遊べそうな気がする
入力音源がある場合、パーカッシブな音にはあんまり効き目がない
音源分離とかに使う余地があるので
---
## Tone Generation with Polyphonic Cycles and Spline Modeling
[[Matthew Klassen]]
[Research, Development and Collaboration](https://azrael.digipen.edu/research/)
SplineKlangという作品とセットになっているよ
[377 Greg Dixon & Matt Klassen | ICMC 2025 Boston - International Computer Music Conference](https://icmc2025.sites.northeastern.edu/online-listening-room/377-greg-dixon-matt-klassen/)
波形のスプラインモデリング
ダウンサンプルしてスプラインで補完するってことかな
音色のブレンディング