Merge remote-tracking branch 'origin/v4' into v4
Some checks failed
Build / build (push) Failing after 13m58s
Some checks failed
Build / build (push) Failing after 13m58s
This commit is contained in:
2
content/.obsidian/graph.json
vendored
2
content/.obsidian/graph.json
vendored
@ -60,6 +60,6 @@
|
||||
"repelStrength": 15.1642583672965,
|
||||
"linkStrength": 0.975453871804372,
|
||||
"linkDistance": 42,
|
||||
"scale": 0.7322130672951164,
|
||||
"scale": 0.31674920955833996,
|
||||
"close": true
|
||||
}
|
@ -1,5 +1,6 @@
|
||||
{
|
||||
"commitMessage": "[obsidian] vault backup: {{date}}",
|
||||
"autoCommitMessage": "[obsidian] vault backup: {{date}}[",
|
||||
"commitDateFormat": "YYYY-MM-DD HH:mm:ss",
|
||||
"autoSaveInterval": 60,
|
||||
"autoPushInterval": 0,
|
||||
@ -8,11 +9,12 @@
|
||||
"disablePush": false,
|
||||
"pullBeforePush": true,
|
||||
"disablePopups": false,
|
||||
"showErrorNotices": true,
|
||||
"disablePopupsForNoChanges": false,
|
||||
"listChangedFilesInMessageBody": false,
|
||||
"showStatusBar": true,
|
||||
"updateSubmodules": true,
|
||||
"syncMethod": "merge",
|
||||
"syncMethod": "rebase",
|
||||
"customMessageOnAutoBackup": false,
|
||||
"autoBackupAfterFileChange": false,
|
||||
"treeStructure": false,
|
||||
@ -29,6 +31,7 @@
|
||||
"showFileMenu": true,
|
||||
"authorInHistoryView": "hide",
|
||||
"dateInHistoryView": false,
|
||||
"diffStyle": "split",
|
||||
"lineAuthor": {
|
||||
"show": false,
|
||||
"followMovement": "inactive",
|
||||
@ -53,6 +56,5 @@
|
||||
"gutterSpacingFallbackLength": 15,
|
||||
"lastShownAuthorDisplay": "initials",
|
||||
"lastShownDateTimeFormatOptions": "date"
|
||||
},
|
||||
"autoCommitMessage": "[obsidian] vault backup: {{date}}["
|
||||
}
|
||||
}
|
45121
content/.obsidian/plugins/obsidian-git/main.js
vendored
45121
content/.obsidian/plugins/obsidian-git/main.js
vendored
File diff suppressed because one or more lines are too long
@ -6,5 +6,5 @@
|
||||
"description": "Integrate Git version control with automatic backup and other advanced features.",
|
||||
"isDesktopOnly": false,
|
||||
"fundingUrl": "https://ko-fi.com/vinzent",
|
||||
"version": "2.25.0"
|
||||
"version": "2.33.0"
|
||||
}
|
||||
|
@ -39,6 +39,10 @@
|
||||
margin-right: auto;
|
||||
}
|
||||
|
||||
.obsidian-git-disabled {
|
||||
opacity: 0.5;
|
||||
}
|
||||
|
||||
.obsidian-git-center-button {
|
||||
display: block;
|
||||
margin: 20px auto;
|
||||
@ -560,3 +564,42 @@
|
||||
display: none;
|
||||
}
|
||||
}
|
||||
|
||||
.git-unified-diff-view,
|
||||
.git-split-diff-view .cm-deletedLine .cm-changedText {
|
||||
background-color: #ee443330;
|
||||
}
|
||||
|
||||
.git-unified-diff-view,
|
||||
.git-split-diff-view .cm-insertedLine .cm-changedText {
|
||||
background-color: #22bb2230;
|
||||
}
|
||||
|
||||
/* Limits the scrollbar to the view body */
|
||||
.git-view {
|
||||
display: flex;
|
||||
flex-direction: column;
|
||||
position: relative;
|
||||
height: 100%;
|
||||
}
|
||||
|
||||
.git-obscure-prompt[git-is-obscured="true"] #git-show-password:after {
|
||||
-webkit-mask-image: url('data:image/svg+xml,<svg xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="svg-icon lucide-eye"><path d="M2.062 12.348a1 1 0 0 1 0-.696 10.75 10.75 0 0 1 19.876 0 1 1 0 0 1 0 .696 10.75 10.75 0 0 1-19.876 0"></path><circle cx="12" cy="12" r="3"></circle></svg>');
|
||||
}
|
||||
|
||||
.git-obscure-prompt[git-is-obscured="false"] #git-show-password:after {
|
||||
-webkit-mask-image: url('data:image/svg+xml,<svg xmlns="http://www.w3.org/2000/svg" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" stroke-linecap="round" stroke-linejoin="round" class="svg-icon lucide-eye-off"><path d="M10.733 5.076a10.744 10.744 0 0 1 11.205 6.575 1 1 0 0 1 0 .696 10.747 10.747 0 0 1-1.444 2.49"></path><path d="M14.084 14.158a3 3 0 0 1-4.242-4.242"></path><path d="M17.479 17.499a10.75 10.75 0 0 1-15.417-5.151 1 1 0 0 1 0-.696 10.75 10.75 0 0 1 4.446-5.143"></path><path d="m2 2 20 20"></path></svg>');
|
||||
}
|
||||
|
||||
/* Override styling of Codemirror merge view "collapsed lines" indicator */
|
||||
.git-split-diff-view .ͼ2 .cm-collapsedLines {
|
||||
background: var(--interactive-normal);
|
||||
border-radius: var(--radius-m);
|
||||
color: var(--text-accent);
|
||||
font-size: var(--font-small);
|
||||
padding: var(--size-4-1) var(--size-4-1);
|
||||
}
|
||||
.git-split-diff-view .ͼ2 .cm-collapsedLines:hover {
|
||||
background: var(--interactive-hover);
|
||||
color: var(--text-accent-hover);
|
||||
}
|
||||
|
10
content/Andrew McPherson.md
Normal file
10
content/Andrew McPherson.md
Normal file
@ -0,0 +1,10 @@
|
||||
---
|
||||
date: 2025-06-14 09:40
|
||||
---
|
||||
#person
|
||||
|
||||
Augmented Instrument Lab
|
||||
|
||||
https://instrumentslab.org/
|
||||
|
||||
|
27
content/Arco.md
Normal file
27
content/Arco.md
Normal file
@ -0,0 +1,27 @@
|
||||
---
|
||||
date: 2025-06-12 09:29
|
||||
---
|
||||
#computermusic #programming-language
|
||||
|
||||
[GitHub - rbdannenberg/arco](https://github.com/rbdannenberg/arco)
|
||||
|
||||
## メモ
|
||||
|
||||
オーディオレートの処理でも、サンプルごとの処理のパターンと、ブロックレベルの処理の2種類がある。
|
||||
|
||||
ブロックレベルの処理の場合は入力もブロック
|
||||
|
||||
UGenは基本的に[[参照カウント]]GC
|
||||
|
||||
ここが重要そう
|
||||
|
||||
> ポイントは、入力信号の種類が非常に多様である点です。constant、block、audioレート入力に加え、単一チャンネルとマルチチャンネル信号の組み合わせにより、潜在的に6種類の入力タイプが存在します。入力数がNの場合、`real_run`のバリエーションは6^Nに及ぶ可能性があり、自動コード生成であっても管理が困難になります。
|
||||
> この問題を解決するために、2つの主要な戦略を採用しています。まず、入力と出力信号の複数チャンネルを反復処理するコードは、単一の`real_run`メソッドに実装されます。ただし、異なる種類の入力の処理は、`run_channel`メソッドを介した間接的なメソッド呼び出しにより個別化されています。run_channelは、対応するメソッドを指すメソッドです。例えば、`mult`では、2つのオーディオレートチャンネル(各々32浮動小数点数のベクトル)を乗算してオーディオレートチャンネルを生成する`chan_aa_a`メソッドと、オーディオレートチャンネルとブロックレートチャンネル(単一の浮動小数点数)を乗算する`chan_ab_a`メソッドがあります。変数`run_channel`は入力が変更されるたびに適切なメソッドに設定され、正しい個別化されたDSP計算が実行されます。
|
||||
|
||||
> 2 番目の戦略では、入力チャンネルを反復処理するロジックを、`run_channel` を呼び出す前に各入力に対して 1 つの加算命令に削減します。したがって、オーバーヘッドは出力チャンネルの数 x 入力信号の数になります。これは、アクセスおよび計算されるデータの総量に比べて非常に小さいです。
|
||||
|
||||
> 各 `run_channel` メソッドは、入力が入力ごとのサンプルポインタのアドレスから開始することを期待しています。ポインタは `run_channel`によって変更されることはありませんが、戻ると、サンプルポインタは入力ごとのストライド量だけインクリメントされます。シングルチャンネル入力の場合、各チャンネルで同じ入力を再利用したいので、ストライドは 0 です。マルチチャンネルオーディオ入力の場合、入力の次のチャンネルに進みたいので、ストライドは 2 です。入力と出力はメモリ内で連続しているため、ストライドはブロック長 (BL = 32) になります。マルチチャンネルのブロックレート入力の場合、1 ブロックにつき 1 サンプルしかないので、ストライドは 1 になります。最後に、定数入力 (メッセージによって更新できる値) は、ブロックレート信号と同じように扱われます。定数は、ストライドが 0 または 1 のシングルチャンネルまたはマルチチャンネルにすることができます。
|
||||
|
||||
> これらの戦略により、オーディオレート入力とブロックレート入力に異なるコードが必要であるため、組み合わせは 6^N バージョンの内部計算ループから 2^N バージョンに減少します。一部の入力をオーディオレートに制限することで、これをさらに制限することができます。たとえば、ブロックレート信号にオーディオローパスフィルターを適用することはあまり意味がありません。
|
||||
|
||||
[arco/doc/design.md at main · rbdannenberg/arco · GitHub](https://github.com/rbdannenberg/arco/blob/main/doc/design.md)
|
@ -11,7 +11,7 @@ date: 2025-05-22 13:58
|
||||
|
||||
- LeonardoやPro Microのように、HIDをエミュレートできる(マウスやキーボードの代わりになるUSBデバイスを自作できる)
|
||||
- アナログのオペアンプが2個ついている。
|
||||
- ADCを最大12bitの解像度で使える。
|
||||
- ADCを最大14bitの解像度で使える。
|
||||
- PWMだけじゃなくて12bitのDACも2系統使える。
|
||||
- 電源入力が12V→24Vまで対応になった。リニアレギュレーターじゃなくDCDCコンバーターになったので、熱の心配もない。
|
||||
- USB-Cなので助かる。
|
||||
@ -27,7 +27,7 @@ LEDを適当に直つなぎするとそれだけで過電流になりかねな
|
||||
|
||||
### 過電流での壊れ方がへん
|
||||
|
||||
上とも関連するが、間違えて出力ピンをショートさせたり過負荷を加えると、基本そのピンだけでなくチップが丸ごと壊れる。
|
||||
上とも関連するが、間違えて出力ピンをショートさせたり過電圧を加えると、基本そのピンだけでなくチップが丸ごと壊れる。
|
||||
|
||||
今まであったパターンでは、
|
||||
|
||||
@ -40,7 +40,7 @@ LEDを適当に直つなぎするとそれだけで過電流になりかねな
|
||||
|
||||
ツールチェーンのせいなのかわからんけど、軽くR3の4倍ぐらいはかかる。ESP32系をコンパイルするときの長さと似たような感じ。授業だと地味に死活問題。
|
||||
|
||||
## ADCTouchが使えない
|
||||
### ADCTouchが使えない
|
||||
|
||||
AVR系では、ADCのピンを入力/出力モードを内部的に高速にスイッチすることで、ADCピンに導線を挿すだけでタッチセンサーとして使える高度なライブラリ[[ADCTouch]]があって便利だったのだが、これが使えない
|
||||
|
||||
@ -52,3 +52,16 @@ AVR系では、ADCのピンを入力/出力モードを内部的に高速にス
|
||||
|
||||
[GitHub - delta-G/R4\_Touch: Capacitive Touch Sensing for the Arduino UNO-R4](https://github.com/delta-G/R4_Touch)
|
||||
|
||||
→使ってみたけど、手動キャリブレーションが割と必要な感じだった。まだ実用じゃないな
|
||||
|
||||
### Firmataがそのままでは使えない
|
||||
|
||||
Configurable Firmataを使って専用のConfigを書かないとダメだった。
|
||||
|
||||
Configurable Firmataをインストール後、`~Documents/Arduino/libralies/ConfigurableFirmata/src/utility/Boards.h`を以下のGistに上げたファイルと置き換える。
|
||||
|
||||
[Arduino Uno R4 minimaでConfigurable Firmataを動かすためのコード(817行目のIS\_PIN\_PWMを修正) ENABLE\_SERVOをUndefしないと動かない。 · GitHub](https://gist.github.com/tomoyanonymous/9efdd3e6063b9eeb0fb7527137a55c93)
|
||||
|
||||
サンプルスケッチのConfigurableFirmata→ConfigurableFirmataを開く
|
||||
|
||||
22行目の`ENABLE_SERVO`をコメントアウトして書き込み。これで動く
|
26
content/BibLaTeX.md
Normal file
26
content/BibLaTeX.md
Normal file
@ -0,0 +1,26 @@
|
||||
---
|
||||
date: "2025-06-18T12:10:00+0900"
|
||||
---
|
||||
#research #tools
|
||||
|
||||
学術論文や書籍の引用・参考文献を管理するためのLaTeX用パッケージ。従来のBibTeXの後継として開発された。
|
||||
|
||||
## 特徴
|
||||
|
||||
- Unicode対応
|
||||
- 多言語サポート
|
||||
- より柔軟な引用スタイル
|
||||
- より豊富なエントリータイプとフィールド
|
||||
- バックエンド処理にBiberを使用
|
||||
|
||||
## 使用方法
|
||||
|
||||
```latex
|
||||
\usepackage[style=authoryear]{biblatex}
|
||||
\addbibresource{references.bib}
|
||||
```
|
||||
|
||||
## 関連ツール
|
||||
|
||||
- [[Zotero]]:BibLaTeXフォーマットでの書誌情報エクスポートが可能
|
||||
- [[Pandoc]]:Markdownから引用情報を含めたLaTeX/PDF変換に対応
|
7
content/CERN Open Hardware License.md
Normal file
7
content/CERN Open Hardware License.md
Normal file
@ -0,0 +1,7 @@
|
||||
---
|
||||
date: 2025-06-12 10:02
|
||||
---
|
||||
#stub
|
||||
|
||||
[Home | CERN Open Hardware Licence](https://cern-ohl.web.cern.ch/home)
|
||||
|
6
content/CIRMMT Distinguished Speaker Series.md
Normal file
6
content/CIRMMT Distinguished Speaker Series.md
Normal file
@ -0,0 +1,6 @@
|
||||
---
|
||||
date: 2025-06-08 11:02
|
||||
---
|
||||
#scrap
|
||||
|
||||
[CIRMMT Distinguished Speaker Series Visualization](https://idmil.github.io/CIRMMT_visualizations)
|
@ -1,6 +1,12 @@
|
||||
---
|
||||
date: "2023-08-22T23:39:29+0900"
|
||||
---
|
||||
#tools #software
|
||||
#tools #software #programming-language #logic
|
||||
|
||||
定理証明支援システム
|
||||
[[依存型]]に基づいた定理証明支援システム。フランス[[INRIA]]で開発され、プログラムの正当性証明に使用される。
|
||||
|
||||
[[Coqの勉強]]で学習リソースを整理している。
|
||||
|
||||
### 関連研究者
|
||||
|
||||
- [[Emilio Jesús Gallego Arias]] - [[Faust]]の形式的証明プロジェクトに関わっている
|
16
content/DIPS.md
Normal file
16
content/DIPS.md
Normal file
@ -0,0 +1,16 @@
|
||||
---
|
||||
date: 2025-06-14 10:27
|
||||
---
|
||||
#programming
|
||||
|
||||
[[莱孝之]] [[松田周]] らによって作成
|
||||
|
||||
[DIPS for Max](https://dips.kcm-sd.ac.jp/)
|
||||
|
||||
[[Max]]のビジュアライズ関連のパッケージ
|
||||
|
||||
[Digital Image Processing with Sound - Wikipedia](https://en.wikipedia.org/wiki/Digital_Image_Processing_with_Sound)
|
||||
|
||||
[[Jitter]]が出る前にOpenGLとダイレクトに繋ぐパッケージだったのかな
|
||||
|
||||
[Max/MSP/DIPS – Akihiko Matsumoto Blog](https://akihikomatsumoto.com/blog/?p=442)
|
12
content/Electroacoustic Music Studies Asia Network.md
Normal file
12
content/Electroacoustic Music Studies Asia Network.md
Normal file
@ -0,0 +1,12 @@
|
||||
---
|
||||
date: 2025-06-10 16:07
|
||||
---
|
||||
#group
|
||||
|
||||
[6.Battier.pdf](https://data.jssa.info/paper/2012v04n01/6.Battier.pdf)
|
||||
|
||||
[Electroacoustic Music Studies Asia Network \[EMSAN\] | IReMus](https://www.iremus.cnrs.fr/en/base-de-donnees/electroacoustic-music-studies-asia-network-emsan)
|
||||
|
||||
データベース
|
||||
|
||||
[EMSAN: The Electroacoustic Music Studies Asia Network](http://emsan.lib.ntnu.edu.tw/about.jsp)
|
4
content/Eric Lyon.md
Normal file
4
content/Eric Lyon.md
Normal file
@ -0,0 +1,4 @@
|
||||
---
|
||||
date: 2025-06-11 14:05
|
||||
---
|
||||
#person #stub
|
14
content/Esolangなシンセサイザー.md
Normal file
14
content/Esolangなシンセサイザー.md
Normal file
@ -0,0 +1,14 @@
|
||||
---
|
||||
date: 2025-06-06 12:29
|
||||
---
|
||||
#memo #idea
|
||||
|
||||
[[uiua]]みたいなカスタムキャラクター使いまくった独自言語
|
||||
|
||||
三十文字ぐらい上限で複雑な音が出せると良い
|
||||
|
||||
何かしらBF的なプログラム制御構造が加えられると面白い
|
||||
|
||||
ソフトシンセ、VST、Web、ハードウェア(メカニカルキーボード+小型ディスプレイとか)いろんなバリエーションが作れたら楽しそう
|
||||
|
||||
|
15
content/Exidiophone.md
Normal file
15
content/Exidiophone.md
Normal file
@ -0,0 +1,15 @@
|
||||
---
|
||||
date: 2025-06-14 19:46
|
||||
---
|
||||
#instrument
|
||||
|
||||
https://matsuuratomoya.com/works/exidiophone
|
||||
|
||||
|
||||
止まっているバージョン4の構想を続けたい
|
||||
|
||||
マイクを耳、光る部分を目だとして、2つのペアを同時に使って架空の生物みたいな見た目にしたら面白そう
|
||||
|
||||
羽のある脊椎動物(宮崎アニメの何かの生物とかみたいな)
|
||||
|
||||
|
@ -1,13 +1,13 @@
|
||||
---
|
||||
date: "2023-08-22T23:39:29+0900"
|
||||
---
|
||||
#software #programming-language #sound
|
||||
#software #programming-language #sound #computermusic
|
||||
|
||||
https://faust.grame.fr
|
||||
|
||||
ブロックダイアグラム代数(Block-Diagram-Algebra:BDA)という独自の体系を基礎に置く信号処理記述に特化した言語。
|
||||
[[音楽プログラミング言語の形式化]]のプロジェクトで研究対象となっている言語の一つ。ブロックダイアグラム代数(Block-Diagram-Algebra:BDA)という独自の体系を基礎に置く信号処理記述に特化した言語。
|
||||
|
||||
パターンマッチングによる項書きかえマクロを使うことでかなり複雑な信号処理を表現できる。
|
||||
パターンマッチングによる項書きかえマクロを使うことでかなり複雑な信号処理を表現できる。[[PureData]]や[[Max]]のようなビジュアルプログラミング言語とは異なり、テキストベースで記述する。
|
||||
|
||||
文法が独特なのでかなり学習が難しい。
|
||||
|
||||
|
10
content/Feminist Hackerspaces as Safer Spaces.md
Normal file
10
content/Feminist Hackerspaces as Safer Spaces.md
Normal file
@ -0,0 +1,10 @@
|
||||
---
|
||||
date: 2025-06-06 13:04
|
||||
---
|
||||
#scrap #feminism
|
||||
|
||||
[[Sophie Toupin]]
|
||||
|
||||
[Feminist Hackerspaces as Safer Spaces? | .dpi](https://dpi.studioxx.org/en/feminist-hackerspaces-safer-spaces)
|
||||
|
||||
|
8
content/Francesco Cameli.md
Normal file
8
content/Francesco Cameli.md
Normal file
@ -0,0 +1,8 @@
|
||||
---
|
||||
date: 2025-06-20 12:51
|
||||
---
|
||||
#person
|
||||
|
||||
[vitreo12 (Francesco Cameli) · GitHub](https://github.com/vitreo12)
|
||||
|
||||
[Embark Studios Open Source | embark.dev](https://embark.dev/)
|
5
content/Frugal innovation.md
Normal file
5
content/Frugal innovation.md
Normal file
@ -0,0 +1,5 @@
|
||||
---
|
||||
date: 2025-06-09 09:30
|
||||
---
|
||||
#notion
|
||||
|
4
content/Garnet Hertz.md
Normal file
4
content/Garnet Hertz.md
Normal file
@ -0,0 +1,4 @@
|
||||
---
|
||||
date: 2025-06-12 14:24
|
||||
---
|
||||
#person
|
8
content/Generative Justice.md
Normal file
8
content/Generative Justice.md
Normal file
@ -0,0 +1,8 @@
|
||||
---
|
||||
date: 2025-06-12 14:25
|
||||
---
|
||||
#notion
|
||||
|
||||
[The Center for Generative Justice](https://generativejustice.org/)
|
||||
|
||||
|
25
content/HackMD.md
Normal file
25
content/HackMD.md
Normal file
@ -0,0 +1,25 @@
|
||||
---
|
||||
date: "2025-06-18T12:35:00+0900"
|
||||
---
|
||||
#software #tools #note
|
||||
|
||||
HackMDはMarkdownベースのコラボレーション文書作成プラットフォーム。
|
||||
|
||||
https://hackmd.io/
|
||||
|
||||
## 特徴
|
||||
|
||||
- リアルタイム共同編集
|
||||
- 完全なMarkdown対応
|
||||
- 数式、図表、コードブロックなどの拡張記法
|
||||
- プレゼンテーションモード
|
||||
- 簡単な共有とアクセス管理
|
||||
|
||||
## 使用例
|
||||
|
||||
- 技術文書作成
|
||||
- 会議記録
|
||||
- 研究ノート
|
||||
- 講義資料
|
||||
|
||||
[[この研究ノートについて]]の初期段階でも検討された選択肢の一つ。
|
565
content/ICMC2025 ペーパーセッション聴講メモ.md
Normal file
565
content/ICMC2025 ペーパーセッション聴講メモ.md
Normal file
@ -0,0 +1,565 @@
|
||||
---
|
||||
date: 2025-06-09 09:25
|
||||
---
|
||||
#memo
|
||||
|
||||
|
||||
## Interactive Music Co-Creation with an Instrumental Technique-Aware System: A Case Study with Flute and Somax2
|
||||
|
||||
[[Somax2]]
|
||||
|
||||
## Prototyping Digital Musical Instruments in Virtual Reality
|
||||
|
||||
VR内でのプロトタイピング。現実空間でのプロトタイプがゴミめっちゃ出るというところを起点にしてるのは、本当か?みたいな気がする
|
||||
|
||||
tactilityがないのは厳しいですよね、そりゃそう
|
||||
|
||||
[[Frugal innovation]]ね
|
||||
|
||||
Questのコントローラーに磁石つけて擬似触覚的な機能を持たせる
|
||||
|
||||
スケッチ→モデリング→Audio Design→ファブリケーション(実際にはいろんな行き来がある)
|
||||
|
||||
何を使うか
|
||||
|
||||
- [[TinkerCad]]
|
||||
- [[PureData]] / [[MetaSounds]] / [[Max]]
|
||||
- [[Unity]]&[[LibPd]]
|
||||
- [[Steam Audio]] for Spatialization
|
||||
- Meta Quest2
|
||||
|
||||
例えば、加速度メーターとボタンの楽器のデモを3Dモデルを作ってからVR空間でまず試す
|
||||
|
||||
6人で実験 Pdパッチやモデルはあらかじめテンプレートを渡す
|
||||
|
||||
---
|
||||
## PyChiro: Real-Time Gesture Recognition System Supporting the Kodály Chironomic Method in Music Education, Therapy, and Performance
|
||||
|
||||
|
||||
カメラをベースにした手のジェスチャーインタラクションシステム
|
||||
|
||||
ハンガリーにある[Kodály method](https://en.wikipedia.org/wiki/Kod%C3%A1ly_method)
|
||||
|
||||
[[コダーイ]]っていうのね
|
||||
|
||||
[コダーイ・コンセプト – 日本コダーイ協会](http://kodaly.jp/concept/)
|
||||
|
||||
音程を表すハンドサインがあるらしい
|
||||
|
||||
[The Kodaly Method: Fun hand-signing Games for young Musicians](https://mobilemusicschool.ie/kodaly-method-music-games/)
|
||||
|
||||
オクターブが腕の角度で変わるけど、それも検出
|
||||
|
||||
## VibroTempo: Feel the Beat with Vibrational Metronomes for Musicians
|
||||
|
||||
振動メトロノーム
|
||||
|
||||
アクセント付きで鳴らせる 目的としては音楽教育っぽい
|
||||
|
||||
アクセント付きビートとかだと伝統的なメトロノームと結果が変わってくる
|
||||
|
||||
## ZAP!: Bio-Inspired Large-Scale Multimedia Installation
|
||||
|
||||
電気ウナギにインスパイアされたサウンドインスタレーション
|
||||
|
||||
[[バイオミミクリー]]
|
||||
|
||||
## Music102: An D12-equivariant transformer for chord progression accompaniment
|
||||
|
||||
群論をコード進行の表現に使う
|
||||
|
||||
シューアの補題
|
||||
|
||||
[2410.18151 Music102: An D12-equivariant transformer for chord progression accompaniment](https://arxiv.org/abs/2410.18151)
|
||||
|
||||
結局メロディーの中からコード進行を抽出するっていうのでいいのかな
|
||||
|
||||
---
|
||||
|
||||
## AI音楽パネル
|
||||
|
||||
### 中央音楽学院(CCOM)
|
||||
|
||||
AI音楽だけでセンターができてる(中にラボが6つあるとか)
|
||||
|
||||
規模的にかなわんわー
|
||||
|
||||
モデル構築も作品制作もやってる ロボット音楽みたいなのも結構ある
|
||||
|
||||
[CENTRAL CONSERVATORY OF MUSIC](https://en.ccom.edu.cn/)
|
||||
|
||||
MUSIC Demixing challenge の2023もトップ取ったとか
|
||||
|
||||
diffusionモデルで音から弦の左手のポジションを推定(Vtuberとかには便利そうだな)
|
||||
|
||||
### Lamberto Coccioh
|
||||
|
||||
Music and Technology at Royal Birmingham Conservatoire (RBC), Birmingham City University
|
||||
|
||||
Ontlogical paradox of artificial intelligence in musical composition
|
||||
|
||||
何のために生成AI音楽を作るのか?作るとは何なのか?
|
||||
|
||||
framing AI through technological determinism
|
||||
|
||||
生成AIが与えうるインパクトを理解しきれないまま作ってる面があるのでは
|
||||
|
||||
radical other form of agency
|
||||
|
||||
animist entitiesなのではという(妖精?)
|
||||
|
||||
AI as machine vs AI as person
|
||||
|
||||
paradoxes:
|
||||
|
||||
- 現状のAIは資本主義の産物であるという問題
|
||||
- 人間のcognitionとは関係がないこと
|
||||
- AI exploits and automates creativity but cannot be controlled
|
||||
|
||||
"controlled emergence"
|
||||
|
||||
トレーニングデータの制限
|
||||
|
||||
結構ラディカルに規制派だな
|
||||
|
||||
|
||||
Biocultural Diversity
|
||||
|
||||
言語の絶滅にどう対策をするか?に似ている
|
||||
|
||||
"Safeguarding creativity for future generation"
|
||||
|
||||
### Carlos Arana
|
||||
|
||||
the University of Buenos Aires / Barklee College
|
||||
|
||||
AI in Music: A Pedagogical Approach for Productive and Responsible Music
|
||||
|
||||
Music work lifecycle (含むconsumption)のいろんなところでAIが使えるよねということ
|
||||
|
||||
pedagogical approach :task - technology - application - evaluation
|
||||
|
||||
4 week course AI for music and audio (barklee online)
|
||||
|
||||
例えば音源分離なら、一通り原理を学び、実際のアプリとかも使い、その後これらをどう使うか?について評価する これをあらゆる分野でやる
|
||||
|
||||
LANDRとかSunoとかMagentaみたいなのを一歩引いてみるのを教育として持ち込んでるのは面白いなあ
|
||||
|
||||
telent/hit-song detectionとかまでカバーしてるのかあ
|
||||
|
||||
倫理・法の面もカバーする
|
||||
|
||||
### Marc Battier
|
||||
|
||||
knowledge is cumulative / implicit knowledges are easily lost.
|
||||
|
||||
シュトックハウゼンのKthinka's Gesangのアシスタントを務めたのは誰か、フランソワ・ベイルのアシスタントは誰か聞いてみたけど、当然間違った答えを返した
|
||||
|
||||
信頼できないだけじゃなくて、ミスリーディングである
|
||||
|
||||
コンピューター音楽の作曲における暗黙知とは何か、それらをなるべく構造化していくこと
|
||||
|
||||
EMSAN :[[Electroacoustic Music Studies Asia Network]]
|
||||
|
||||
|
||||
アジアで作られた電子音楽を集めるデータベースを作った
|
||||
|
||||
[EMSAN: The Electroacoustic Music Studies Asia Network](http://emsan.lib.ntnu.edu.tw/about.jsp)
|
||||
|
||||
### Georg Hajdu
|
||||
|
||||
Healing Soundscape
|
||||
|
||||
style-agnostic なヒーリング音楽ね、、、
|
||||
|
||||
ゲシュタルト心理学
|
||||
|
||||
音の”ブーバ”化(角が取れるみたいなことかな、、、)
|
||||
|
||||
𰻞
|
||||
|
||||
ラテントスペース使ってるよってことね
|
||||
|
||||
### Kenneth Fields
|
||||
|
||||
University of China Academy
|
||||
|
||||
Chronotechnics
|
||||
|
||||
ネットワーク音楽をずっとやってる人っぽい
|
||||
|
||||
全然AI関係なさそう、、なんで選ばれた?
|
||||
|
||||
Netronomia
|
||||
|
||||
[NetronomiaII by Ken Fields](https://rdmc.nottingham.ac.uk/handle/internal/11989)
|
||||
|
||||
---
|
||||
|
||||
## Then and now – Musical needs and Intelligent Tools
|
||||
|
||||
[[Miriam Akkermann]]
|
||||
|
||||
[[Research in music and artificial intelligence]] -- [[Curtis Roads]]
|
||||
|
||||
More than imitation
|
||||
|
||||
how should we evaluate the creativity of human-like and superhuman?
|
||||
|
||||
how do we evaluate what is accomplished by the specific tools?
|
||||
|
||||
need for new classification systems
|
||||
|
||||
|
||||
---
|
||||
|
||||
## Anger at the Asteroid: From Exhibition to Ensemble Performance
|
||||
|
||||
|
||||
[[Courtney Brown]]
|
||||
|
||||
恐竜の鳴き声をいろんな形で作り続けているっぽい
|
||||
|
||||
[Rawr! A Study in Sonic Skulls: Embodied Natural History](https://www.nime.org/proc/cbrown2015/index.html)(2015のNIME)
|
||||
|
||||
初期は人口声帯で作ってたけど途中でDSPに変えたのかな?
|
||||
|
||||
[About – Dinosaur Choir](https://dino.courtney-brown.net/about/)
|
||||
|
||||
Raspberrypi単品だとレイテンシーが微妙だった
|
||||
|
||||
|
||||
## Dynamic Generalized Parametric Control of Digital Music Instruments
|
||||
|
||||
[[Eric Lyon]] Virginia University
|
||||
|
||||
VSTのパラメーター補完(プリセット同士のinterpolation?)
|
||||
|
||||
"preset is just one data point in the set of all possible sonic configurations"
|
||||
|
||||
2つのプリセットだったらスライダーで変えればいいよね
|
||||
|
||||
どんなVSTでも使える
|
||||
|
||||
[[Max]]の`vst~`を使う
|
||||
|
||||
補完はJSで実装
|
||||
|
||||
それ以上ならlatent spaceの探索みたいな話?そうっぽい
|
||||
|
||||
|
||||
- Int.lib([[Oli Larkin]])
|
||||
- j74 Morph [f a b r i z i o p o c e | J 7 4](https://www.fabriziopoce.com/morph.html)
|
||||
- Arturia Polybruteにもそういう機能がある
|
||||
|
||||
|
||||
## Women’s Labor: Weaving it all Together
|
||||
|
||||
[[Margaret Schedel]]
|
||||
|
||||
domestic tools as musical instruments
|
||||
|
||||
[[Bag theory]] : first human cultural product
|
||||
|
||||
これまでやったこと:色をwekinatorで画像認識/重さセンサー
|
||||
|
||||
Woven Scores
|
||||
|
||||
phryamework 布と導電布でスピーカー作る
|
||||
|
||||
create new community through workshop
|
||||
|
||||
質問:アクティビズムでもあり、ハイテックでもある不思議な位置付けだけどどこが先に来たのか:そのまんま、コミッションのオーダーとしてNIMEとフェミニズムのテーマでなんかやるというのがあった
|
||||
|
||||
|
||||
## CAFFEINE: Collaborative Affordable Framework For Experiments in Interactive Networked Electronics
|
||||
|
||||
[[Scott Petersen]] Yale University
|
||||
|
||||
学部生の合同プロジェクトっぽい [[ソニフィケーション]]のためのシステム?
|
||||
|
||||
ハード+ソフトのフレームワーク
|
||||
|
||||
caffeine pods 無線、バッテリー駆動
|
||||
|
||||
many-pods one-broker many clients
|
||||
|
||||
[[esp32-s3]] devkit C 超音波距離センサー、Groveサウンドセンサー、光センサー
|
||||
|
||||
ブローカーはPython、ソニフィケーションは[[SuperCollider]]
|
||||
|
||||
|
||||
## A Real-Time Gesture-Based Control Framework
|
||||
|
||||
MaxとPythonの相性悪い問題(とはいえここでもPythonとOSCで連携してるらしい)
|
||||
|
||||
ジェスチャー認識をMaxでもやりたい
|
||||
|
||||
- Rapidmax
|
||||
- MuBu
|
||||
- Gimlet
|
||||
- Gestural Sound Tolkit
|
||||
|
||||
[[MediaPipe]]使ったらしい
|
||||
|
||||
リアルタイム・フルボディ
|
||||
|
||||
[[Wekinator]]みたくオンライン学習できるのが強み
|
||||
|
||||
## Arco : A Flexible Audio Processing Framework
|
||||
|
||||
[[Roger Dannenberg]]
|
||||
|
||||
ブロックサイズをあげていった時に、オールオーディオレートで処理した時の処理負荷の谷が8サンプルの時に来る
|
||||
|
||||
[[O2]]メッセージのフォーマットだとこれで、
|
||||
|
||||
```
|
||||
/arco/fmosc/new ID chans input1 input2 ...
|
||||
/arco/free ID
|
||||
```
|
||||
|
||||
ハイレベルのAPIだとこう
|
||||
|
||||
```
|
||||
sine1 = sine(440,0.01).play()
|
||||
sine1=nil
|
||||
```
|
||||
|
||||
|
||||
リアルタイムのUGen増やす、減らすもできる
|
||||
|
||||
[[Nick Collins]]からの質問SuperColliderとの違い
|
||||
|
||||
SCはコンパイルされたUGenどの順番で実行されるかが一列にソートされて順番に実行されていくけど、Arcoは必ずしもそうじゃない(部分的には並列化もできるのかな)
|
||||
|
||||
遅いレートのイベントストリームの取り扱いをどうすればいいんだろう - [probe](https://github.com/rbdannenberg/arco/blob/main/doc/ugens.md#probe)命令があるのか
|
||||
|
||||
うーん、こう見ると、[[UGenの生成をスクリプトから命令列に変換する]]のが重要なのかな
|
||||
|
||||
## Functional Iterative Swing: An Open Framework for Exploring Warped Ramps, Exponential Rhythm, and Euclidean Shuffle
|
||||
|
||||
スイングを数学的に考えよう
|
||||
|
||||
リズムのグリッドを切るための直線的なライン(`y=x`)があったとして、それを`y = n^x`で捻じ曲げていくとスイングに近いものが作れるのではないか
|
||||
|
||||
## A Bidirectionally Stacking Loudspeaker Enclosure Design for Wave Field Synthesis
|
||||
|
||||
[[Rhode Island School of Design]]
|
||||
|
||||
[GitHub - risdsound/wfs: An open-source, modular loudspeaker enclosure system for Wave Field Synthesis (WFS), developed at the Studio for Research in Sound and Technology (SRST) at Rhode Island School of Design (RISD).](https://github.com/risdsound/wfs)
|
||||
|
||||
## Composing for AI Voice Model Choir
|
||||
|
||||
[[Nick Collins]]
|
||||
|
||||
人の声を出すモデルに、全然関係ないソースをぶち込む
|
||||
|
||||
メルツバウの音楽でテイラースイフトの声のモデルを駆動するとか
|
||||
|
||||
[Music for Celebrity AI Voice Model Choir | Nick Collins | sick lincoln](https://sicklincoln.bandcamp.com/album/music-for-celebrity-ai-voice-model-choir)
|
||||
|
||||
Danger of Revisionism
|
||||
|
||||
## Explorations In Augmented String Instrument Design: A Conversation With Mentors Of Musical Innovation
|
||||
|
||||
後藤さんて電気バイオリン作ってたんだ
|
||||
|
||||
[Project MUSE - The Aesthetics and Technological Aspects of Virtual Musical Instruments: The Case of the SuperPolm MIDI Violin](https://muse.jhu.edu/article/585450)
|
||||
|
||||
DMIとかAugumented Instrumentのデザインプロセスをどう語るかに参考になりそうな感じはする
|
||||
|
||||
## Acoustic Wave Modeling with 2D FDTD: Applications in Unreal Engine for Dynamic Sound Rendering
|
||||
|
||||
[[Bilkent Samsurya]]
|
||||
|
||||
ゲームメーカーで働いてるけど研究者としてはインデペンデントらしい
|
||||
|
||||
レイトレベースのリバーブだと低域厳しいですよね
|
||||
|
||||
[[時間領域有限要素法|FDTD]] 使いましょう
|
||||
|
||||
- Unreal上でプリプロセスして、
|
||||
- PythonでFDTDシミュレーション
|
||||
- クアドラマイクでスイープ録音したのをIRに逆畳み込み
|
||||
- Unrealに戻ってIRに反映
|
||||
|
||||
聴取点が動いたらどうなるのかな
|
||||
|
||||
低域の改善は実際のとこどうなんでしょう
|
||||
|
||||
---
|
||||
|
||||
## Wax: Flow-based Audio Programming in the Web Browser
|
||||
|
||||
[[Wax]] にまとめて書いた
|
||||
|
||||
[[Michael Cella]] [[Anıl Çamcı]]
|
||||
|
||||
---
|
||||
|
||||
## An Approach to Creating Unalienated Music Technology
|
||||
|
||||
[[David Minnix]] [[Anıl Çamcı]]
|
||||
|
||||
Unalianatedねえ
|
||||
|
||||
Problem of High-Tech
|
||||
|
||||
Climate impact of computing
|
||||
|
||||
[[サーキットベンディング]]とサスティナビリティ [Circuit Bending and Environmental Sustainability: Current Situation and Steps Forward · NIME 2022](https://nime.pubpub.org/pub/025d4cv1/release/1)
|
||||
|
||||
[[ゾンビ・メディア]]の話でもあるね
|
||||
|
||||
[[PermaComputing]]
|
||||
|
||||
[[Generative Justice]] なるほど
|
||||
|
||||
disused mobile devices で動く楽器を作る
|
||||
|
||||
ライブラリ[[Algae]]を作って、アプリ[[Firedot]]を作った
|
||||
|
||||
Algae:まあよくある信号処理C++ライブラリな気がする
|
||||
|
||||
なぜこのライブラリを作る必要があったんだろうか(なるべく依存性を減らすというのはわかるけど)
|
||||
|
||||
AndroidとSDL2.0 /
|
||||
|
||||
パーマコンピューティングならuxnエコシステムの方が上手くいってるようにも見えるな
|
||||
|
||||
高校生向けワークショップ
|
||||
|
||||
質問:高校生にやる時にこういうエシカルな側面をどうやってWSに含めるよ?
|
||||
|
||||
## Fractional Fourier Sound Synthesis
|
||||
|
||||
[[Rodrigo F. Cadiz]]
|
||||
|
||||
[\[2506.09189\] Fractional Fourier Sound Synthesis](https://www.arxiv.org/abs/2506.09189)
|
||||
|
||||
https://cordutie.github.io/frft_sound_synthesis/
|
||||
|
||||
[[分数次フーリエ変換]]
|
||||
|
||||
そんなのあるのか、、、、
|
||||
|
||||

|
||||
|
||||
時間(0)→周波数(1)ドメインの中間地点というものを考えてみれば良い(x軸に時間軸をとり、y軸に周波数をとり、その回転を考える)
|
||||
|
||||
単位に相当するものが存在しない
|
||||
|
||||
ノイズ除去とか圧縮には使われてたけど、合成には特に使われていない
|
||||
|
||||
まあ単純に聴感上面白くはあるなというか、この遠回りな方向でなければ出なさそうな音がする
|
||||
|
||||
変換した空間でフィルターをかける
|
||||
|
||||
STFTみたいにウィンドウかけて処理するからなんともいえないなー、非リアルタイムの方が色々遊べそうな気がする
|
||||
|
||||
入力音源がある場合、パーカッシブな音にはあんまり効き目がない
|
||||
|
||||
音源分離とかに使う余地があるので
|
||||
|
||||
---
|
||||
## Tone Generation with Polyphonic Cycles and Spline Modeling
|
||||
|
||||
[[Matthew Klassen]]
|
||||
|
||||
[Research, Development and Collaboration](https://azrael.digipen.edu/research/)
|
||||
|
||||
SplineKlangという作品とセットになっているよ
|
||||
|
||||
[377 Greg Dixon & Matt Klassen | ICMC 2025 Boston - International Computer Music Conference](https://icmc2025.sites.northeastern.edu/online-listening-room/377-greg-dixon-matt-klassen/)
|
||||
|
||||
波形のスプラインモデリング
|
||||
|
||||
ダウンサンプルしてスプラインで補完するってことかな
|
||||
|
||||
音色のブレンディング
|
||||
|
||||
---
|
||||
## Hierarchisation algorithm for MORFOS : a music analysis software
|
||||
|
||||
[Hierarchisation algorithm for MORFOS : a music analysis software - Collegium Musicæ : collection « Musique et Sciences »](https://hal.science/MUSCI/hal-05066154v1#:~:text=MORFOS%20is%20a%20music%20analysis,to%20the%20definition%20of%20structure.)
|
||||
|
||||
Multi-Scale formal diagram
|
||||
|
||||
[Visualisation of Multi-scale Formal Diagrams for Music Analysis - Archive ouverte HAL](https://hal.science/hal-04632212)
|
||||
|
||||
Cognitive musicology by [[Otto Laske]]
|
||||
|
||||
[[Variable Marcov Oracle]]をマルチスケールに拡張したもの
|
||||
|
||||
---
|
||||
|
||||
## Deep Drawing
|
||||
|
||||
audio to drawing
|
||||
|
||||
絵を描いている時の音を録音して、その音から何を描いているのかコンピューターに予測させる
|
||||
|
||||
|
||||
---
|
||||
|
||||
## dit dah delta token: Statistical Models of Music and Language Interfering via Morse Code
|
||||
|
||||
|
||||
[[Victor Shepardson]] [[Thor Magnusson]]
|
||||
|
||||
Morse music for LoftSkevtaStodin
|
||||
|
||||
[[Notochord]]
|
||||
|
||||
[[モールス信号]]
|
||||
|
||||
リズム・アンド・ランゲージモデル
|
||||
|
||||
LLMのトークンツリーの代わりにモールスツリーみたいなものを作る
|
||||
|
||||
---
|
||||
|
||||
## Cloud Conversations Virtually Recreating the Musical Resonances of Costa Rican Outdoor Performance Spaces
|
||||
|
||||
[[Omar Shabbar]]
|
||||
|
||||
[[Barry Blesser]] Proto and Meta Instruments
|
||||
|
||||
[Spaces Speak, Are You Listening?: Experiencing Aural Architecture | Books Gateway | MIT Press](https://direct.mit.edu/books/book/2407/Spaces-Speak-Are-You-Listening-Experiencing-Aural)
|
||||
|
||||
|
||||
## Frescobaldi^2: applying historical split-key keyboard models to modern electronic organs
|
||||
|
||||
[Organon - Frescobaldi^2: enharmonic keyboard enhancement - YouTube](https://www.youtube.com/watch?v=4jnMXSNvYh8)
|
||||
|
||||
キーボードに追加できる鍵盤
|
||||
|
||||
磁石とホールセンサーでやってるらしい
|
||||
|
||||
[[Andrew McPherson]]の[[TouchKey]]とかと似てるのは
|
||||
|
||||
---
|
||||
## Noise and Buttons
|
||||
|
||||
[[Michael Gaspari]]
|
||||
|
||||
Neurodiverityな人のための音楽教育アプリ
|
||||
|
||||
何が一番アクセシブルなインターフェースだろうか→ボタン
|
||||
|
||||
4つのボタンだけで、行ける限り複雑なシンセサイザーのコントロールを得る
|
||||
|
||||
- 赤:テンポ
|
||||
- 黄:リズム
|
||||
- 緑:音色
|
||||
- 青:ハーモニー
|
||||
|
||||
## Developing Max Objects for Mocopi: New Motion Capture System
|
||||
|
||||
[[莱孝之]]
|
||||
|
||||
[[DIPS]](Digital Image Proceing with Sound)元々jMax用に作られて、Maxで使えるビジュアライゼーションシステムがある
|
||||
|
||||
|
||||
|
14
content/ILY不採択コメント2025.md
Normal file
14
content/ILY不採択コメント2025.md
Normal file
@ -0,0 +1,14 @@
|
||||
---
|
||||
date: 2025-06-18 12:50
|
||||
---
|
||||
#stub
|
||||
|
||||
石川さん
|
||||
|
||||
鋳造とデジタル3Dモデリング/スキャンといった分野の掛け合わせは、過去のILYプロジェクトでも支援しており、研究領域としての重要性は高く評価されました。その一方で、企画書の内容からは最終的なアウトプットの形態が見えにくいことや、検証プロセスのより詳細な記述が欲しいといった指摘が審査ではなされました。具体的な作品の制作よりも基礎的な造形技術の比較検証に重きを置くのであれば、その研究を誰に向けて行うのか(鋳金作家/デジタル3D造形を行う作家や技術者/一般的な聴衆)のフォーカスを絞ることでアウトプットの方向性も自ずと定まるように思います。以上の理由から今回は不採択という結果になりましたが、3Dプリントやスキャンなどの技術的な相談についてはAMCの方で積極的に受けられればと思いますので、お気軽にご連絡ください。
|
||||
|
||||
木村さん
|
||||
|
||||
脳波を用いたインタラクティブなアニメーションという着眼点そのものは挑戦的なものとして評価できる企画でした。ただ、企画書の内容から現時点でどの程度技術的検証を行なっているか(例え行なっていなかったとしても)、また検証や制作のスケジュールや開発体制の具体性に掛けており、実現可能性を懸念する点が多く挙げられました。加えてこれまでの制作の内容から、なぜ今回脳波というインターフェースを選択したのかのプレゼンテーションをもう少ししてもらえると良かったです。また、自身の感覚変化をアニメーションの変化を通じて気づくケア的な領域へのアプローチに関しては、そのアニメーション自体が脳波に影響を及ぼしてフィードバックループを引き起こす点に意識的であるかどうかも重要な点になります(例えば、脳波を使った作品の最も古い例の一つであるAlvin Lucierの「Music for Solo Performer」にはその点が作品を構成する要素にあらかじめ組み込まれています)。
|
||||
以上のような点から今回は不採択という結果になりました。
|
||||
|
@ -1,5 +1,12 @@
|
||||
---
|
||||
date: "2024-01-19T12:19:41+0900"
|
||||
---
|
||||
#person
|
||||
#person #studies
|
||||
|
||||
[[メディア考古学]]および[[フォーマット理論]]に関する研究で知られる研究者。マギル大学の教授。2025年3月に亡くなる。
|
||||
|
||||
## 主な著作
|
||||
|
||||
- [[MP3 - the meaning of a format]] - MP3形式の歴史と文化的意味を探求した著作
|
||||
- [[Diminished Faculties - Jonathan Sterne]] - 聴覚障害とメディアに関する著作
|
||||
|
||||
|
8
content/Michael Cella.md
Normal file
8
content/Michael Cella.md
Normal file
@ -0,0 +1,8 @@
|
||||
---
|
||||
date: 2025-06-12 10:32
|
||||
---
|
||||
#person
|
||||
|
||||
[nnirror (Michael Cella) · GitHub](https://github.com/nnirror)
|
||||
|
||||
[[Wax]]とか[[facet]]とか作ってる
|
14
content/Nim.md
Normal file
14
content/Nim.md
Normal file
@ -0,0 +1,14 @@
|
||||
---
|
||||
date: 2025-06-20 12:57
|
||||
---
|
||||
#programming-language
|
||||
|
||||
[Nim Programming Language](https://nim-lang.org/)
|
||||
|
||||
ランタイムレスなコンパイル言語。カスタムのメモリアロケーターとかも定義できる。
|
||||
|
||||
コンパイラもセルフホスティングされているし、STLもNim自身で書かれている。
|
||||
|
||||
|
||||
|
||||
CやC++との連携がしやすい。
|
12
content/Notochord.md
Normal file
12
content/Notochord.md
Normal file
@ -0,0 +1,12 @@
|
||||
---
|
||||
date: 2025-06-13 09:56
|
||||
---
|
||||
#software
|
||||
|
||||
[[Victor Shepardson]]
|
||||
|
||||
[GitHub - Intelligent-Instruments-Lab/notochord: Notochord is a real-time neural network model for MIDI performances.](https://github.com/Intelligent-Instruments-Lab/notochord)
|
||||
|
||||
[Notochord | Intelligent Instruments Lab](https://iil.is/research/notochord)
|
||||
|
||||
|
12
content/Omni.md
Normal file
12
content/Omni.md
Normal file
@ -0,0 +1,12 @@
|
||||
---
|
||||
date: 2025-06-20 12:47
|
||||
---
|
||||
#programming-language #music
|
||||
|
||||
[omni – DSL for low-level audio programming](https://vitreo12.github.io/omni/)
|
||||
|
||||
作者:[[Francesco Cameli]]
|
||||
|
||||
[[Nim]]で書かれた低レベルDSP記述言語。[[SuperCollider]]や[[Max]]の[[UGen]]としてエクスポートできるらしい。
|
||||
|
||||
|
8
content/Otto Laske.md
Normal file
8
content/Otto Laske.md
Normal file
@ -0,0 +1,8 @@
|
||||
---
|
||||
date: 2025-06-13 09:03
|
||||
---
|
||||
#person
|
||||
|
||||
[Otto Laske – Music… and more](https://ottolaske.com/)
|
||||
|
||||
|
25
content/Pandoc.md
Normal file
25
content/Pandoc.md
Normal file
@ -0,0 +1,25 @@
|
||||
---
|
||||
date: "2025-06-18T12:00:00+0900"
|
||||
---
|
||||
#tools #software
|
||||
|
||||
[Pandoc](https://pandoc.org/)はオープンソースのドキュメント変換ツールで、Markdown、HTML、LaTeX、Word、PDFなど様々なフォーマット間の変換ができる。
|
||||
|
||||
## 主な特徴
|
||||
|
||||
- MarkdownからLaTeXやPDFへの変換が可能
|
||||
- [[Zotero]]と連携して学術論文の引用を管理できる
|
||||
- 様々なMarkdownの拡張記法をサポート
|
||||
- [[論文の管理]]で重要なcitekeyの処理が可能
|
||||
|
||||
## インストール
|
||||
|
||||
MacでのインストールはHomebrewを使うのが簡単:
|
||||
|
||||
```bash
|
||||
brew install pandoc
|
||||
```
|
||||
|
||||
## 関連ツール
|
||||
|
||||
[[Obsidian]]の[[obsidian-pandoc-reference-list]]プラグインと組み合わせて使われる。
|
@ -1,6 +1,6 @@
|
||||
---
|
||||
date: "2024-01-05T17:15:38+0900"
|
||||
---
|
||||
#sound #programming-language
|
||||
#sound #programming-language #computermusic
|
||||
|
||||
[[Miller Puckette]]が公開しているオープンソースのサウンドプログラミング環境。
|
||||
[[Miller Puckette]]が公開しているオープンソースの[[サウンドプログラミング環境]]。[[Max]]に影響を与えた。
|
60
content/Research in music and artificial intelligence.md
Normal file
60
content/Research in music and artificial intelligence.md
Normal file
@ -0,0 +1,60 @@
|
||||
---
|
||||
cssclass: research-note
|
||||
type: "journalArticle"
|
||||
author: "Roads, Curtis"
|
||||
title: "Research in music and artificial intelligence"
|
||||
publication: "ACM Comput. Surv."
|
||||
date: 1985-06-01
|
||||
citekey: roads_research_1985
|
||||
tags:
|
||||
- research
|
||||
- journalArticle
|
||||
---
|
||||
|
||||
> [!Cite]
|
||||
> Roads, Curtis. 1985. 「Research in music and artificial intelligence」. _ACM Comput. Surv._ 17 (2): 163–90. [https://doi.org/10.1145/4468.4469](https://doi.org/10.1145/4468.4469).
|
||||
|
||||
>[!Synth]
|
||||
>**Contribution**::
|
||||
>
|
||||
>**Related**::
|
||||
>
|
||||
|
||||
[online](http://zotero.org/users/12014264/items/VXISTY3A) [local](zotero://select/library/items/VXISTY3A) [pdf](file:///Users/tomoya/Zotero/storage/FUU5IL8Q/Roads%20-%201985%20-%20Research%20in%20music%20and%20artificial%20intelligence.pdf)
|
||||
|
||||
|
||||
|
||||
>[!md]
|
||||
> **FirstAuthor**:: Roads, Curtis
|
||||
~
|
||||
> **Title**:: Research in music and artificial intelligence
|
||||
> **Year**:: 1985
|
||||
> **Citekey**:: roads_research_1985
|
||||
> **itemType**:: journalArticle
|
||||
> **Journal**:: *ACM Comput. Surv.*
|
||||
> **Volume**:: 17
|
||||
> **Issue**:: 2
|
||||
> **Pages**:: 163–190
|
||||
> **DOI**:: 10.1145/4468.4469
|
||||
|
||||
> [!LINK]
|
||||
>
|
||||
> [Full Text PDF](file:///Users/tomoya/Zotero/storage/FUU5IL8Q/Roads%20-%201985%20-%20Research%20in%20music%20and%20artificial%20intelligence.pdf).
|
||||
|
||||
> [!Abstract]
|
||||
>
|
||||
> Although the boundaries of artificial intelligence (AI) remain elusive, computers can now perform musical tasks that were formerly associated exclusively with naturally intelligent musicians. After a historical note, this paper sermonizes on the need for AI techniques in four areas of musical research: composition, performance, music theory, and digital sound processing. The next part surveys recent work involving AI and music. The discussion concentrates on applications in the four areas of research just mentioned. The final part examines how AI techniques of planning and learning could be used to expand the knowledge base and enrich the behavior of musically intelligent systems.
|
||||
>.
|
||||
>
|
||||
# Notes
|
||||
|
||||
>.
|
||||
|
||||
|
||||
# Annotations%% begin annotations %%
|
||||
|
||||
|
||||
%% end annotations %%
|
||||
|
||||
|
||||
%% Import Date: 2025-06-11T10:19:43.341-04:00 %%
|
8
content/Roger Dannenberg.md
Normal file
8
content/Roger Dannenberg.md
Normal file
@ -0,0 +1,8 @@
|
||||
---
|
||||
date: 2025-06-12 09:28
|
||||
---
|
||||
#person #stub
|
||||
|
||||
[[Nyquist]]
|
||||
|
||||
[[Arco]]
|
16
content/Scheme for Max.md
Normal file
16
content/Scheme for Max.md
Normal file
@ -0,0 +1,16 @@
|
||||
---
|
||||
date: 2025-06-14 09:38
|
||||
---
|
||||
#computermusic
|
||||
|
||||
[[Max]]で[[Scheme]]を使ってアルゴリズミックコンポジションをするためのパッケージ
|
||||
|
||||
[GitHub - iainctduncan/scheme-for-max: Max/MSP external for scripting and live coding Max with s7 Scheme Lisp](https://github.com/iainctduncan/scheme-for-max)
|
||||
|
||||
[Learn Scheme For Max — Learn Scheme For Max and s7 Scheme 0.1 documentation](https://iainctduncan.github.io/learn-scheme-for-max/index.html)
|
||||
|
||||
[Scheme For Max - Documentation — Scheme For Max 0.1 documentation](https://iainctduncan.github.io/scheme-for-max-docs/)
|
||||
|
||||
[Scheme for Max Sequencing Toolkit — Scheme for Max Sequencing Toolkit 1.0 documentation](https://iainctduncan.github.io/s4m-stk/)
|
||||
|
||||
|
4
content/Scheme.md
Normal file
4
content/Scheme.md
Normal file
@ -0,0 +1,4 @@
|
||||
---
|
||||
date: 2025-06-14 09:38
|
||||
---
|
||||
#programming-language
|
24
content/Scrapbox.md
Normal file
24
content/Scrapbox.md
Normal file
@ -0,0 +1,24 @@
|
||||
---
|
||||
date: "2025-06-18T12:30:00+0900"
|
||||
---
|
||||
#software #tools #note
|
||||
|
||||
Scrapboxは、リンクベースのノート取りツール。URLをコピーするだけで簡単に参照できる段落を作れる。
|
||||
|
||||
https://scrapbox.io/
|
||||
|
||||
## 特徴
|
||||
|
||||
- Wikiリンク記法でページ間をシームレスに接続
|
||||
- 箇条書きベースのシンプルな記法
|
||||
- ページの存在に関わらず自由にリンク作成が可能
|
||||
- 2ホップリンクによる関連情報の発見
|
||||
- 非同期のリアルタイム編集
|
||||
|
||||
## 活用例
|
||||
|
||||
- チーム内のナレッジベース
|
||||
- 個人的な研究ノート
|
||||
- アイデア整理
|
||||
|
||||
[[この研究ノートについて]]でも触れているように、[[Obsidian]]と比較検討されることもある知識管理ツール。
|
19
content/Somax2.md
Normal file
19
content/Somax2.md
Normal file
@ -0,0 +1,19 @@
|
||||
---
|
||||
date: 2025-06-09 09:03
|
||||
---
|
||||
#computermusic
|
||||
|
||||
[Somax2 | STMS Lab](https://www.stms-lab.fr/projects/pages/somax2/)
|
||||
|
||||
[somax2 \[Music Representations Team\]](http://repmus.ircam.fr/somax2)
|
||||
|
||||
OMaxや Voyagerというシステムの後継
|
||||
|
||||
Real-Time Instrumental Playing Technique(IPT) Recognition
|
||||
|
||||
機械学習ベース
|
||||
|
||||
ピッチごとにいろんなテクニック(フラッターとか)をやったデータセットを作る
|
||||
|
||||
GFDataBase
|
||||
|
10
content/Style Transfer.md
Normal file
10
content/Style Transfer.md
Normal file
@ -0,0 +1,10 @@
|
||||
---
|
||||
date: 2025-06-13 09:23
|
||||
---
|
||||
#research #machinelearning
|
||||
|
||||
音楽分野でも結構あるのかな
|
||||
|
||||
[Groove2Groove – One-shot music style transfer](https://groove2groove.telecom-paris.fr/)
|
||||
|
||||
[MUSIC MIXING STYLE TRANSFER](https://jhtonykoo.github.io/MixingStyleTransfer/)
|
4
content/Thor Magnusson.md
Normal file
4
content/Thor Magnusson.md
Normal file
@ -0,0 +1,4 @@
|
||||
---
|
||||
date: 2025-06-13 09:55
|
||||
---
|
||||
#person
|
11
content/TouchKey.md
Normal file
11
content/TouchKey.md
Normal file
@ -0,0 +1,11 @@
|
||||
---
|
||||
date: 2025-06-14 09:42
|
||||
---
|
||||
#instrument #computermusic
|
||||
|
||||
[TouchKeys](https://instrumentslab.org/research/touchkeys.html)
|
||||
|
||||
by [[Andrew McPherson]]
|
||||
|
||||
|
||||
|
38
content/UGenの生成をスクリプトから命令列に変換する.md
Normal file
38
content/UGenの生成をスクリプトから命令列に変換する.md
Normal file
@ -0,0 +1,38 @@
|
||||
---
|
||||
date: 2025-06-12 09:24
|
||||
---
|
||||
#memo #programming-language #sound
|
||||
|
||||
[[Arco]]で行われているメッセージング
|
||||
|
||||
```
|
||||
/arco/fmosc/new ID chans input1 input2 ...
|
||||
/arco/free ID
|
||||
```
|
||||
|
||||
ハイレベルのAPIだとこう
|
||||
|
||||
```
|
||||
sine1 = sine(440,0.01).play()
|
||||
sine1 = nil
|
||||
```
|
||||
|
||||
|
||||
[[SuperCollider]]でも似たような話だけど、ライブコーディング的なシステムを作ろうと思うとこういう制御構造→命令列への変換を定式化するのが重要なのでは
|
||||
|
||||
ジェネラティブUGenネットワークグラフの生成もここに含まれる
|
||||
|
||||
すでに作られたC++のシンセとの統合というのが魅力ではある
|
||||
|
||||
ここがうまく定式化すれば、必要な部分だけダイナミックインタラクションできて、他はJITコンパイルで効率化できるのではないか
|
||||
|
||||
まーでも、どのみち`sine1=nil`みたいな命令型の構造がハイレベルにまで入り込まないと無理なんだよな(グローバルだけ再代入を許せばそれでいいのかも)
|
||||
|
||||
[[mimium]]に生かそうと思うと、UGenに相当するものをダイナミックに作る・消去する工程を命令型でうまく表現できればいいんだけどなあ
|
||||
|
||||
実際には使われてない(アウトプットされてない)UGenもインスタンス化されてしまうので、これを遅延実行するみたいな仕組みがあればいいのかな
|
||||
|
||||
インスタンス化/IOやり取りするメモリマネジメントのタイミング制御だけが重要
|
||||
|
||||
[[Kronos]]におけるコンパイラ-インタプリタを繋げる役割としての[[継時再帰]]
|
||||
|
4
content/Unity.md
Normal file
4
content/Unity.md
Normal file
@ -0,0 +1,4 @@
|
||||
---
|
||||
date: 2025-06-09 09:34
|
||||
---
|
||||
#stub
|
6
content/Variable Marcov Oracle.md
Normal file
6
content/Variable Marcov Oracle.md
Normal file
@ -0,0 +1,6 @@
|
||||
---
|
||||
date: 2025-06-13 09:06
|
||||
---
|
||||
#notion
|
||||
|
||||
[Variable Markov Oracle. A variable Markov oracle is a type of… | by Mehmet Akif Cifci | Medium](https://themanoftalent.medium.com/variable-markov-oracle-e796fd534264)
|
6
content/Victor Shepardson.md
Normal file
6
content/Victor Shepardson.md
Normal file
@ -0,0 +1,6 @@
|
||||
---
|
||||
date: 2025-06-13 09:57
|
||||
---
|
||||
#person
|
||||
|
||||
[jroose · GitHub](https://github.com/jroose)
|
45
content/Wax.md
Normal file
45
content/Wax.md
Normal file
@ -0,0 +1,45 @@
|
||||
---
|
||||
date: 2025-06-12 10:31
|
||||
---
|
||||
#computermusic #visual-language #programming-language
|
||||
|
||||
[GitHub - nnirror/wax: Web-based audio patching environment](https://github.com/nnirror/wax)
|
||||
|
||||
WebAudioベースのグラフィカルデータフロープログラミング環境
|
||||
|
||||
[[Michael Cella]]
|
||||
|
||||
[wax](https://wax.bz)
|
||||
|
||||
---
|
||||
|
||||
ICMC2025のトーク
|
||||
|
||||
- ビジュアル言語だと一定以上の複雑さを扱えない
|
||||
- ライブコードだと自分が今何やってるのかを把握できなくなってくる
|
||||
|
||||
[[facet]]を同梱しているので、Webベースで両方やれる!
|
||||
|
||||
[[RNBO]]のパッチからWaxのデバイス(オブジェクト)にできる!なるほどね
|
||||
|
||||
アプリケーション
|
||||
|
||||
- モバイル
|
||||
- マルチチャンネル
|
||||
- 教育
|
||||
|
||||
スマホを[[ES9]]に繋いでマルチチャンネルか
|
||||
|
||||
真面目にユーザーフィードバックをとった 7人
|
||||
|
||||
ざっくりとした制作の指示をして、フィードバックを募った
|
||||
|
||||
メタオペレーション
|
||||
|
||||
サブパッチがWebAudioだと難しいという問題
|
||||
|
||||
---
|
||||
|
||||
|
||||
|
||||
|
9
content/Wekinator.md
Normal file
9
content/Wekinator.md
Normal file
@ -0,0 +1,9 @@
|
||||
---
|
||||
date: 2025-06-11 15:15
|
||||
---
|
||||
#software #computervision
|
||||
|
||||
|
||||
[Wekinator | Software for real-time, interactive machine learning](http://www.wekinator.org/)
|
||||
|
||||
[GitHub - fiebrink1/wekinator: The current version of the Wekinator. It used to be mini, now it's not, but it still lives here.](https://github.com/fiebrink1/wekinator)
|
@ -1,12 +1,16 @@
|
||||
---
|
||||
date: "2023-08-10T18:40:08+0900"
|
||||
---
|
||||
#tools #software
|
||||
#tools #software #research
|
||||
|
||||
オープンソースの文献管理ソフトウェア。[[論文の管理]]に活用。
|
||||
|
||||
https://zotero.org/
|
||||
|
||||
- アカウント作ればDBは無料で同期化、PDFとか添付ファイルは有料
|
||||
- WebDAVサーバーがあればファイルも含めて同期可能
|
||||
- 今の所[[自宅サーバー#NAS]]でWebDAV立ち上がってるので、VPNに入ってればどこでも読める
|
||||
- まとめてBiblatexにエクスポートしようと思うとこれしか選択肢がない
|
||||
- どちらかというと、[[Mendeley]]が重すぎて無理
|
||||
- まとめて[[BibLaTeX]]にエクスポートしようと思うとこれしか選択肢がない
|
||||
- どちらかというと、[[Mendeley]]が重すぎて無理
|
||||
- [[Obsidian]]との連携には[[obsidian-zotero-integration]]プラグインを使用
|
||||
- [[Pandoc]]との連携で引用管理が便利
|
8
content/facet.md
Normal file
8
content/facet.md
Normal file
@ -0,0 +1,8 @@
|
||||
---
|
||||
date: 2025-06-12 10:32
|
||||
---
|
||||
#programming-language
|
||||
|
||||
[[Max]]上で動作するJSベースのライブコーディング用スクリプティング言語
|
||||
|
||||
[GitHub - nnirror/facet: Live coding and synthesis with NodeJS and a browser](https://github.com/nnirror/facet)
|
@ -18,6 +18,10 @@ https://github.com/mimium-org/mimium-rs
|
||||
|
||||
## 開発メモ
|
||||
|
||||
### 理論
|
||||
|
||||
- [[mimiumの部分的DSP更新とFaustのondemand]]
|
||||
|
||||
### 中間表現について
|
||||
|
||||
- [[mimium新内部表現の構想]]
|
||||
@ -29,9 +33,22 @@ https://github.com/mimium-org/mimium-rs
|
||||
|
||||
### ランタイム周りについて
|
||||
|
||||
- [[mimiumの配列のGC]]
|
||||
- [[mimiumのファイルIO]]
|
||||
- [[mimiumにおけるIO制御]]
|
||||
- [[mimiumでMIDIインプットを実装]]
|
||||
- [[mimiumのファイルIO]]
|
||||
- [[mimiumのプラグインシステム]]
|
||||
- [[mimiumでMIDIインプットを実装]]
|
||||
- [[WASIでmimiumをビルド&デバッグしてみる]]
|
||||
- [[mimiumの配列のGC]]
|
||||
|
||||
---
|
||||
|
||||
開発ロードマップ
|
||||
|
||||
|
||||
[mimium-rs/Roadmap.md at dev · mimium-org/mimium-rs · GitHub](https://github.com/mimium-org/mimium-rs/blob/dev/Roadmap.md)
|
||||
|
||||
- 多段階計算:大変そう。コンパイラドライバをユーザーコードから叩けるようにするのが先か。
|
||||
- [レコード型](https://github.com/mimium-org/mimium-rs/issues/99):要件定義はほぼできたし、他の機能への依存も特になし。デフォルト引数の実装を無視すればとりあえず進められそう
|
||||
- モジュールシステム:名前空間のCライブラリレベルでのマングリングとか考える必要ありそう。
|
||||
- 配列型の実装:GC問題片付けばなんとか?固定長と可変長の切り替えをどうするかを考えたい。
|
||||
- OSCの実装
|
||||
|
23
content/mimiumにおけるIO制御.md
Normal file
23
content/mimiumにおけるIO制御.md
Normal file
@ -0,0 +1,23 @@
|
||||
---
|
||||
date: 2025-06-18 15:42
|
||||
---
|
||||
#mimium
|
||||
|
||||
この辺に応用する用。
|
||||
|
||||
[[mimiumでMIDIインプットを実装]]
|
||||
|
||||
[[mimiumのファイルIO]]
|
||||
|
||||
---
|
||||
|
||||
[[Kronos]] Meta-Sequencerに近い仕組みを、IOモナドなしで実装する(正格評価なのでそこまでやらんでいいはず)
|
||||
|
||||
組み込みのコンパイラドライバを制御する関数をいくつか用意する
|
||||
|
||||
```
|
||||
start()->int
|
||||
stop(id:int)
|
||||
|
||||
|
||||
```
|
30
content/mimiumの部分的DSP更新とFaustのondemand.md
Normal file
30
content/mimiumの部分的DSP更新とFaustのondemand.md
Normal file
@ -0,0 +1,30 @@
|
||||
---
|
||||
date: 2025-06-18 16:39
|
||||
---
|
||||
#mimium #memo
|
||||
|
||||
[Conditional stateful function call will not handle shiftstate position properly · Issue #71 · mimium-org/mimium-rs · GitHub](https://github.com/mimium-org/mimium-rs/issues/71)
|
||||
|
||||
[[mimium]]のif文は選択的にブランチを実行するので、例えば
|
||||
|
||||
```rust
|
||||
fn dsp(){
|
||||
if (random()){
|
||||
gen_a()
|
||||
}else{
|
||||
gen_b()
|
||||
}
|
||||
}
|
||||
```
|
||||
|
||||
のようなコードを書くと、`gen_a`と`gen_b`はそれぞれランダムなサンプルレートで内部を更新するという形になってしまう。
|
||||
|
||||
[[Faust]]の`select`プリミティブが両方のブランチを常に評価する戦略を取っている理由はこれを避けるため。
|
||||
|
||||
ただ、そういう意味では[[Ondemand primitive for Faust]]をmimiumのif文で再現できるとも言える。
|
||||
|
||||
つまり、アップサンプルやダウンサンプルを組み込み関数を新たに定義することなく、ライブラリで定義できる。(サンプルレートの動的な変化とかにどう対応するんだよという問題はあるけど)
|
||||
|
||||
内部状態のimplicitな更新は意味論的に結構曖昧なところなのでなんとかしたいなあ
|
||||
|
||||
|
26
content/obsidian-zotero-integration.md
Normal file
26
content/obsidian-zotero-integration.md
Normal file
@ -0,0 +1,26 @@
|
||||
---
|
||||
date: "2025-06-18T12:15:00+0900"
|
||||
---
|
||||
#obsidian #plugin #tools
|
||||
|
||||
[GitHub - mgmeyers/obsidian-zotero-integration](https://github.com/mgmeyers/obsidian-zotero-integration)
|
||||
|
||||
[[Obsidian]]と[[Zotero]]を連携させるためのプラグイン。以下の機能がある:
|
||||
|
||||
- Zoteroデータベースから引用情報を[[Obsidian]]のノートに挿入
|
||||
- PDFの注釈をノートに取り込み
|
||||
- 文献情報の自動インポート
|
||||
- カスタムテンプレートでのノート生成
|
||||
- Pandoc citekeysによる引用サポート
|
||||
|
||||
## セットアップ
|
||||
|
||||
1. Obsidianのプラグイン設定からインストール
|
||||
2. Zoteroにはあらかじめ[[BibLaTeX]]プラグインをインストールしておく
|
||||
3. テンプレートファイル(例:[[templates/zotero_template]])を設定
|
||||
|
||||
## 使い方
|
||||
|
||||
1. コマンドパレットから`Import from Zotero`を実行
|
||||
2. 必要な文献を選択してインポート
|
||||
3. [[論文の管理]]のワークフローに組み込む
|
@ -1,16 +1,16 @@
|
||||
---
|
||||
date: "2023-08-10T18:30:08+0900"
|
||||
---
|
||||
#obsidian
|
||||
#obsidian #notes
|
||||
|
||||
- 元々のブログもあるけど、あっちは研究用というよりも、公開して読み物として読んでもらうことを前提にしていて、ちょっと気軽に使いづらい
|
||||
- 日付でソートされる必要のないノートがいい(項目ごとに随時アップデートされる)
|
||||
- セミオープンなScrapboxとか、HackMD的なやつをセルフホストしたい
|
||||
- セミオープンな[[Scrapbox]]とか、[[HackMD]]的なやつをセルフホストしたい
|
||||
- なるべくファイルベースの管理がいい
|
||||
|
||||
- 自分で管理するWebサイト大体全部Hugoでデプロイしてるので結局Hugoが楽
|
||||
- 自分で管理するWebサイト大体全部[[Hugo]]でデプロイしてるので結局Hugoが楽
|
||||
|
||||
- 現状[[Quartz]]という[[Obsidian]]で書いたものをなるべくそのまま~~[[Hugo]]でビルドして~~(⇨v4でHugoじゃなくなった)Github Pagesに公開できる仕組みを使っている
|
||||
- 現状[[Quartz]]という[[Obsidian]]で書いたものをなるべくそのまま~~[[Hugo]]でビルドして~~(⇨v4でHugoじゃなくなった)[[Github Pages]]に公開できる仕組みを使っている
|
||||
- ただし公開の方法はブランチからの公開ではなく最近できた[公式のAction](https://docs.github.com/ja/pages/getting-started-with-github-pages/configuring-a-publishing-source-for-your-github-pages-site#%E3%82%AB%E3%82%B9%E3%82%BF%E3%83%A0-github-actions-%E3%83%AF%E3%83%BC%E3%82%AF%E3%83%95%E3%83%AD%E3%83%BC%E3%81%AB%E3%82%88%E3%82%8B%E5%85%AC%E9%96%8B)を使うよう自力で改造している
|
||||
- これのせいか知らんけど最終編集時刻の反映が上手くいってない
|
||||
- もしかするとシングルファイルのコミットのみが反映されてたりするのかも?
|
||||
|
4
content/サーキットベンディング.md
Normal file
4
content/サーキットベンディング.md
Normal file
@ -0,0 +1,4 @@
|
||||
---
|
||||
date: 2025-06-12 14:23
|
||||
---
|
||||
#stub
|
6
content/ゾンビ・メディア.md
Normal file
6
content/ゾンビ・メディア.md
Normal file
@ -0,0 +1,6 @@
|
||||
---
|
||||
date: 2025-06-12 14:24
|
||||
---
|
||||
#notion
|
||||
|
||||
[[Garnet Hertz]] and [[Jussi Parikka]]
|
17
content/ハーモニクス弦楽器.md
Normal file
17
content/ハーモニクス弦楽器.md
Normal file
@ -0,0 +1,17 @@
|
||||
---
|
||||
date: 2025-06-14 19:46
|
||||
---
|
||||
#memo #music #instrument
|
||||
|
||||
[[Exidiophone]]を弦でやったらどうなるか
|
||||
|
||||
棒の両端にベアリングがついてて、その周りを輪っか状のギター弦がテンション掛けて張ってある
|
||||
|
||||
ピックアップ+エキサイターのペアが弦の近くを動ける
|
||||
|
||||
弦のうち一箇所に錘がついていて、振動のハーモニクスの位置が弦の回転位置で変えられる
|
||||
|
||||
トレモロ的な仕組みで、弦全体のテンションも7半音ぐらいまで制御できる
|
||||
|
||||
|
||||
|
@ -3,4 +3,6 @@ date: "2024-01-29T14:46:44+0900"
|
||||
---
|
||||
#notion #studies
|
||||
|
||||
[[Jonathan Sterne]]によって立ち上げられた理論。[[MP3 - the meaning of a format]]において物質的な基盤を持たないものに対してもメディア研究のアプローチが有効であることを示す試み。[[メディア考古学]]とも関連。
|
||||
|
||||
|
||||
|
@ -3,6 +3,9 @@ date: "2024-01-29T14:46:44+0900"
|
||||
---
|
||||
#notion #studies
|
||||
|
||||
[[Jussi Parikka]]
|
||||
メディアの歴史的発展の探求と考古学的アプローチを組み合わせた研究分野。[[フォーマット理論]]と関連が深い。
|
||||
|
||||
[[Jonathan Sterne]]
|
||||
主要な研究者:
|
||||
[[Jussi Parikka]]
|
||||
[[Jonathan Sterne]] - [[MP3 - the meaning of a format]]
|
||||
[[Lev Manovich]]
|
||||
|
8
content/分数次フーリエ変換.md
Normal file
8
content/分数次フーリエ変換.md
Normal file
@ -0,0 +1,8 @@
|
||||
---
|
||||
date: 2025-06-12 14:49
|
||||
---
|
||||
#mathematics
|
||||
|
||||
[分数次フーリエ変換 - Wikipedia](https://ja.wikipedia.org/wiki/%E5%88%86%E6%95%B0%E6%AC%A1%E3%83%95%E3%83%BC%E3%83%AA%E3%82%A8%E5%A4%89%E6%8F%9B)
|
||||
|
||||
|
@ -5,7 +5,7 @@ date: "2023-10-13T11:43:40+0900"
|
||||
|
||||
松浦 知也(SoundMaker)
|
||||
|
||||
音に関わるメディア・インフラストラクチャ技術を実践を交え批評的にデザインする活動を「音楽土木工学」と称して研究。ハウリングだけで音を出す自作電子楽器「Exidiophone」などを用いての演奏活動、音楽プログラミング言語「mimium」の設計と開発のほか、近年はDIY半導体の制作に取り組む。分担執筆に「クリティカル・ワード ポピュラー音楽」(フィルムアート社、2022年)。1994年生まれ。2022年九州大学 大学院芸術工学府 博士後期課程修了。同年より東京藝術大学 芸術情報センター 特任助教。
|
||||
音に関わるメディア・インフラストラクチャ技術を実践を交え批評的にデザインする活動を「音楽土木工学」と称して研究。ハウリングだけで音を出す自作電子楽器「[[Exidiophone]]」などを用いての演奏活動、音楽プログラミング言語「[[mimium]]」の設計と開発のほか、近年はDIY半導体の制作に取り組む。分担執筆に「クリティカル・ワード ポピュラー音楽」(フィルムアート社、2022年)。1994年生まれ。2022年九州大学 大学院芸術工学府 博士後期課程修了。同年より東京藝術大学 芸術情報センター 特任助教。
|
||||
|
||||
Matsuura Tomoya is SoundMaker: who makes a sound, makes instruments to make a sound, and makes environments to make the instruments. He calls his own research area “Civil Engineering of Music”, which designs socio-technical infrastructure around sound and music critically through practices. He develops “mimium” a programming language for music(2019~), and does performances with “Exidiophone”, an electro-acoustic instrument that makes sound with only an audio-feedback. Currently working as Project Assistant Professor at Art Media Center in Tokyo University of the Arts.
|
||||
|
||||
|
19
content/機械学習とピッチ補正.md
Normal file
19
content/機械学習とピッチ補正.md
Normal file
@ -0,0 +1,19 @@
|
||||
---
|
||||
date: 2025-06-13 09:20
|
||||
---
|
||||
#research #survey #machinelearning
|
||||
|
||||
[[知覚的擬似直接操作]]について考えていることの下調べ
|
||||
|
||||
[\[1902.00956\] Deep Autotuner: A Data-Driven Approach to Natural-Sounding Pitch Correction for Singing Voice in Karaoke Performances](https://arxiv.org/abs/1902.00956)
|
||||
|
||||
[[Sanna Wager]]
|
||||
|
||||
[DIFF-PITCHER: DIFFUSION-BASED SINGING VOICE PITCH CORRECTION](https://engineering.jhu.edu/lcap/data/uploads/pdfs/waspaa2023_hai.pdf)
|
||||
|
||||
[NEURAL PITCH-SHIFTING AND TIME-STRETCHING WITH CONTROLLABLE LPCNET](https://www.maxrmorrison.com/pdfs/morrison2022neural.pdf)
|
||||
|
||||
音楽における[[Style Transfer]]の特殊系と考えてもいいかも
|
||||
|
||||
|
||||
|
@ -3,6 +3,7 @@ date: "2023-09-14T22:02:36+0900"
|
||||
---
|
||||
#semiconductor #material
|
||||
|
||||
前駆体として[[酸化亜鉛]]薄膜を形成する際に使われる材料。[[酢酸亜鉛]]とともに[[DIY半導体-実験ノート1]]で使用。
|
||||
|
||||
##### Bioinspired macromolecular templates for crystallographic orientation control of ZnO thin films through zinc hydroxide carbonate
|
||||
|
||||
|
28
content/知覚的擬似直接操作.md
Normal file
28
content/知覚的擬似直接操作.md
Normal file
@ -0,0 +1,28 @@
|
||||
---
|
||||
date: 2025-06-12 13:32
|
||||
---
|
||||
#memo #computermusic #notion
|
||||
|
||||
Perceptual (Pseudo-Direct) Manipulation
|
||||
|
||||
オーディオの領域においては、厳密な意味での[[Direct Manipulation]]は存在しない。
|
||||
|
||||
GUIベースのオーディオ操作ソフトは、イラストレーターの図のように出力される結果を直接操作しているわけではなく、音を生成するシステムのメタファーを直接操作している。
|
||||
|
||||
ただ、「直接」と呼ぶに値するワークフローとして、[[Auto-Tune]]のようなインタラクティブなピッチ補正のシステムが挙げられる。
|
||||
|
||||
これは、厳密に表現をするのであれば、
|
||||
|
||||
- 一度オーディオからピッチを分析して、
|
||||
- そのピッチのカーブをGUIで編集し、
|
||||
- - ピッチカーブの差分データと元のオーディオデータを組み合わせて、望ましいピッチを出力するようなオーディオデータを逆方向に計算
|
||||
|
||||
しているのだと言える。
|
||||
|
||||
では、このワークフローをピッチ分析以外にも、リバーブの量であったり、和音の種類だったり、声の明るさのような、より複雑なデータに対しても適用できないだろうか?
|
||||
|
||||
幸いにも機械学習分野でのさまざまな研究をもとにして、[[Variational Autoencoder]](VAE)を応用すればこの仕組みに近いことができるはずだ。
|
||||
|
||||
|
||||
|
||||
|
4
content/莱孝之.md
Normal file
4
content/莱孝之.md
Normal file
@ -0,0 +1,4 @@
|
||||
---
|
||||
date: 2025-06-14 10:29
|
||||
---
|
||||
#stub
|
@ -11,6 +11,8 @@ https://www.amazon.co.jp/dp/B006ZSV13G/
|
||||
|
||||
前駆体溶液自体は金属亜鉛よりこっちスタートの方がいいのかな(直接溶かすと時間がかかる上に不純物がいっぱい析出する)
|
||||
|
||||
[[炭酸亜鉛]]を経て生成される。[[色素増感太陽電池]]の材料としても使われる。
|
||||
|
||||
亜鉛と塩酸の反応速度 : 反応に伴って生成される黒色物質の影響について / 工藤 貞重 / 研究報告 / 新潟県立教育センター
|
||||
|
||||
巻 9, p. 17-24, 発行日 1976-03-30
|
||||
|
@ -27,7 +27,7 @@ date: "2024-01-05T17:15:38+0900"
|
||||
- [[Vult]]
|
||||
- [[Gwion]]
|
||||
- [[Glicol]]
|
||||
|
||||
- [[Omni]]
|
||||
|
||||
---
|
||||
|
||||
|
Reference in New Issue
Block a user