Files
quartz-research-note/content/ICMC2025 ペーパーセッション聴講メモ.md
松浦 知也 Matsuura Tomoya 8faae4d8c4
Some checks failed
Build / build (push) Failing after 13m40s
[obsidian] vault backup: 2025-06-12 19:04:21[
2025-06-12 19:04:21 -04:00

15 KiB
Raw Blame History

date
date
2025-06-09 09:25

#memo

Interactive Music Co-Creation with an Instrumental Technique-Aware System: A Case Study with Flute and Somax2

Somax2

Prototyping Digital Musical Instruments in Virtual Reality

VR内でのプロトタイピング。現実空間でのプロトタイプがゴミめっちゃ出るというところを起点にしてるのは、本当かみたいな気がする

tactilityがないのは厳しいですよね、そりゃそう

Frugal innovation

Questのコントローラーに磁石つけて擬似触覚的な機能を持たせる

スケッチ→モデリング→Audio Design→ファブリケーション実際にはいろんな行き来がある

何を使うか

例えば、加速度メーターとボタンの楽器のデモを3Dモデルを作ってからVR空間でまず試す

6人で実験 Pdパッチやモデルはあらかじめテンプレートを渡す


PyChiro: Real-Time Gesture Recognition System Supporting the Kodály Chironomic Method in Music Education, Therapy, and Performance

カメラをベースにした手のジェスチャーインタラクションシステム

ハンガリーにあるKodály method

コダーイっていうのね

コダーイ・コンセプト 日本コダーイ協会

音程を表すハンドサインがあるらしい

The Kodaly Method: Fun hand-signing Games for young Musicians

オクターブが腕の角度で変わるけど、それも検出

VibroTempo: Feel the Beat with Vibrational Metronomes for Musicians

振動メトロノーム

アクセント付きで鳴らせる 目的としては音楽教育っぽい

アクセント付きビートとかだと伝統的なメトロノームと結果が変わってくる

ZAP!: Bio-Inspired Large-Scale Multimedia Installation

電気ウナギにインスパイアされたサウンドインスタレーション

バイオミミクリー

Music102: An D12-equivariant transformer for chord progression accompaniment

群論をコード進行の表現に使う

シューアの補題

2410.18151 Music102: An D12-equivariant transformer for chord progression accompaniment

結局メロディーの中からコード進行を抽出するっていうのでいいのかな


AI音楽パネル

中央音楽学院CCOM

AI音楽だけでセンターができてる中にラボが6つあるとか

規模的にかなわんわー

モデル構築も作品制作もやってる ロボット音楽みたいなのも結構ある

CENTRAL CONSERVATORY OF MUSIC

MUSIC Demixing challenge の2023もトップ取ったとか

diffusionモデルで音から弦の左手のポジションを推定Vtuberとかには便利そうだな

Lamberto Coccioh

Music and Technology at Royal Birmingham Conservatoire (RBC), Birmingham City University

Ontlogical paradox of artificial intelligence in musical composition

何のために生成AI音楽を作るのか作るとは何なのか

framing AI through technological determinism

生成AIが与えうるインパクトを理解しきれないまま作ってる面があるのでは

radical other form of agency

animist entitiesなのではという妖精

AI as machine vs AI as person

paradoxes:

  • 現状のAIは資本主義の産物であるという問題
  • 人間のcognitionとは関係がないこと
  • AI exploits and automates creativity but cannot be controlled

"controlled emergence"

トレーニングデータの制限

結構ラディカルに規制派だな

Biocultural Diversity

言語の絶滅にどう対策をするか?に似ている

"Safeguarding creativity for future generation"

Carlos Arana

the University of Buenos Aires / Barklee College

AI in Music: A Pedagogical Approach for Productive and Responsible Music

Music work lifecycle (含むconsumption)のいろんなところでAIが使えるよねということ

pedagogical approach :task - technology - application - evaluation

4 week course AI for music and audio (barklee online)

例えば音源分離なら、一通り原理を学び、実際のアプリとかも使い、その後これらをどう使うか?について評価する これをあらゆる分野でやる

LANDRとかSunoとかMagentaみたいなのを一歩引いてみるのを教育として持ち込んでるのは面白いなあ

telent/hit-song detectionとかまでカバーしてるのかあ

倫理・法の面もカバーする

Marc Battier

knowledge is cumulative / implicit knowledges are easily lost.

シュトックハウゼンのKthinka's Gesangのアシスタントを務めたのは誰か、フランソワ・ベイルのアシスタントは誰か聞いてみたけど、当然間違った答えを返した

信頼できないだけじゃなくて、ミスリーディングである

コンピューター音楽の作曲における暗黙知とは何か、それらをなるべく構造化していくこと

EMSAN Electroacoustic Music Studies Asia Network

アジアで作られた電子音楽を集めるデータベースを作った

EMSAN: The Electroacoustic Music Studies Asia Network

Georg Hajdu

Healing Soundscape

style-agnostic なヒーリング音楽ね、、、

ゲシュタルト心理学

音の”ブーバ”化(角が取れるみたいなことかな、、、)

𰻞

ラテントスペース使ってるよってことね

Kenneth Fields

University of China Academy

Chronotechnics

ネットワーク音楽をずっとやってる人っぽい

全然AI関係なさそう、、なんで選ばれた

Netronomia

NetronomiaII by Ken Fields


Then and now Musical needs and Intelligent Tools

Miriam Akkermann

Research in music and artificial intelligence -- Curtis Roads

More than imitation

how should we evaluate the creativity of human-like and superhuman?

how do we evaluate what is accomplished by the specific tools?

need for new classification systems


Anger at the Asteroid: From Exhibition to Ensemble Performance

Courtney Brown

恐竜の鳴き声をいろんな形で作り続けているっぽい

Rawr! A Study in Sonic Skulls: Embodied Natural History(2015のNIME)

初期は人口声帯で作ってたけど途中でDSPに変えたのかな

About Dinosaur Choir

Raspberrypi単品だとレイテンシーが微妙だった

Dynamic Generalized Parametric Control of Digital Music Instruments

Eric Lyon Virginia University

VSTのパラメーター補完プリセット同士のinterpolation?

"preset is just one data point in the set of all possible sonic configurations"

2つのプリセットだったらスライダーで変えればいいよね

どんなVSTでも使える

Maxvst~を使う

補完はJSで実装

それ以上ならlatent spaceの探索みたいな話そうっぽい

Womens Labor: Weaving it all Together

Margaret Schedel

domestic tools as musical instruments

Bag theory : first human cultural product

これまでやったこと色をwekinatorで画像認識/重さセンサー

Woven Scores

phryamework 布と導電布でスピーカー作る

create new community through workshop

質問アクティビズムでもあり、ハイテックでもある不思議な位置付けだけどどこが先に来たのかそのまんま、コミッションのオーダーとしてNIMEとフェミニズムのテーマでなんかやるというのがあった

CAFFEINE: Collaborative Affordable Framework For Experiments in Interactive Networked Electronics

Scott Petersen Yale University

学部生の合同プロジェクトっぽい ソニフィケーションのためのシステム?

ハード+ソフトのフレームワーク

caffeine pods 無線、バッテリー駆動

many-pods one-broker many clients

esp32-s3 devkit C 超音波距離センサー、Groveサウンドセンサー、光センサー

ブローカーはPython、ソニフィケーションはSuperCollider

A Real-Time Gesture-Based Control Framework

MaxとPythonの相性悪い問題とはいえここでもPythonとOSCで連携してるらしい

ジェスチャー認識をMaxでもやりたい

  • Rapidmax
  • MuBu
  • Gimlet
  • Gestural Sound Tolkit

MediaPipe使ったらしい

リアルタイム・フルボディ

Wekinatorみたくオンライン学習できるのが強み

Arco : A Flexible Audio Processing Framework

Roger Dannenberg

ブロックサイズをあげていった時に、オールオーディオレートで処理した時の処理負荷の谷が8サンプルの時に来る

O2メッセージのフォーマットだとこれで、

/arco/fmosc/new ID chans input1 input2 ...
/arco/free ID

ハイレベルのAPIだとこう

sine1 = sine(440,0.01).play()
sine1=nil

リアルタイムのUGen増やす、減らすもできる

Nick Collinsからの質問SuperColliderとの違い

SCはコンパイルされたUGenどの順番で実行されるかが一列にソートされて順番に実行されていくけど、Arcoは必ずしもそうじゃない部分的には並列化もできるのかな

遅いレートのイベントストリームの取り扱いをどうすればいいんだろう - probe命令があるのか

うーん、こう見ると、UGenの生成をスクリプトから命令列に変換するのが重要なのかな

Functional Iterative Swing: An Open Framework for Exploring Warped Ramps, Exponential Rhythm, and Euclidean Shuffle

スイングを数学的に考えよう

リズムのグリッドを切るための直線的なライン(y=x)があったとして、それをy = n^xで捻じ曲げていくとスイングに近いものが作れるのではないか

A Bidirectionally Stacking Loudspeaker Enclosure Design for Wave Field Synthesis

Rhode Island School of Design

GitHub - risdsound/wfs: An open-source, modular loudspeaker enclosure system for Wave Field Synthesis (WFS), developed at the Studio for Research in Sound and Technology (SRST) at Rhode Island School of Design (RISD).

Composing for AI Voice Model Choir

Nick Collins

人の声を出すモデルに、全然関係ないソースをぶち込む

メルツバウの音楽でテイラースイフトの声のモデルを駆動するとか

Music for Celebrity AI Voice Model Choir | Nick Collins | sick lincoln

Danger of Revisionism

Explorations In Augmented String Instrument Design: A Conversation With Mentors Of Musical Innovation

後藤さんて電気バイオリン作ってたんだ

Project MUSE - The Aesthetics and Technological Aspects of Virtual Musical Instruments: The Case of the SuperPolm MIDI Violin

DMIとかAugumented Instrumentのデザインプロセスをどう語るかに参考になりそうな感じはする

Acoustic Wave Modeling with 2D FDTD: Applications in Unreal Engine for Dynamic Sound Rendering

Bilkent Samsurya

ゲームメーカーで働いてるけど研究者としてはインデペンデントらしい

レイトレベースのリバーブだと低域厳しいですよね

時間領域有限要素法 使いましょう

  • Unreal上でプリプロセスして、
  • PythonでFDTDシミュレーション
  • クアドラマイクでスイープ録音したのをIRに逆畳み込み
  • Unrealに戻ってIRに反映

聴取点が動いたらどうなるのかな

低域の改善は実際のとこどうなんでしょう


Wax: Flow-based Audio Programming in the Web Browser

Wax にまとめて書いた

Michael Cella Anıl Çamcı


An Approach to Creating Unalienated Music Technology

David Minnix Anıl Çamcı

Unalianatedねえ

Problem of High-Tech

Climate impact of computing

サーキットベンディングとサスティナビリティ Circuit Bending and Environmental Sustainability: Current Situation and Steps Forward · NIME 2022

ゾンビ・メディアの話でもあるね

PermaComputing

Generative Justice なるほど

disused mobile devices で動く楽器を作る

ライブラリAlgaeを作って、アプリFiredotを作った

Algae:まあよくある信号処理C++ライブラリな気がする

なぜこのライブラリを作る必要があったんだろうか(なるべく依存性を減らすというのはわかるけど)

AndroidとSDL2.0 /

パーマコンピューティングならuxnエコシステムの方が上手くいってるようにも見えるな

高校生向けワークショップ

質問高校生にやる時にこういうエシカルな側面をどうやってWSに含めるよ

Fractional Fourier Sound Synthesis

Rodrigo F. Cadiz

[2506.09189] Fractional Fourier Sound Synthesis

https://cordutie.github.io/frft_sound_synthesis/

分数次フーリエ変換

そんなのあるのか、、、、

{\displaystyle {\mathcal {F}}_{\alpha }(f)(\omega )={\sqrt {\frac {1-i\cot(\alpha )}{2\pi }}}e^{i\cot(\alpha )\omega ^{2}/2}\int _{-\infty }^{\infty }e^{-i\csc(\alpha )\omega t+i\cot(\alpha )t^{2}/2}f(t),dt~.}

時間0→周波数(1)ドメインの中間地点というものを考えてみれば良いx軸に時間軸をとり、y軸に周波数をとり、その回転を考える

単位に相当するものが存在しない

ノイズ除去とか圧縮には使われてたけど、合成には特に使われていない

まあ単純に聴感上面白くはあるなというか、この遠回りな方向でなければ出なさそうな音がする

変換した空間でフィルターをかける

STFTみたいにウィンドウかけて処理するからなんともいえないなー、非リアルタイムの方が色々遊べそうな気がする

入力音源がある場合、パーカッシブな音にはあんまり効き目がない

音源分離とかに使う余地があるので


Tone Generation with Polyphonic Cycles and Spline Modeling

Matthew Klassen

Research, Development and Collaboration

SplineKlangという作品とセットになっているよ

377 Greg Dixon & Matt Klassen | ICMC 2025 Boston - International Computer Music Conference

波形のスプラインモデリング

ダウンサンプルしてスプラインで補完するってことかな

音色のブレンディング