main

July 15, 2006

MouseSound

MouseSound
Updated 12 June 2006 for Mac OS X (10.2 and later).
T100 [ Download ] /peg

This environmental application is generating sounds by mouse movement.

---
mousesound.gifos9時代はマウスアクションに応じて音を鳴らす機能がありました。
何かをクリックしたらあるサンプルを再生するだけのシンプルなものでしたけど。

MouseSoundはマウスの動かし方に応じて音を生成しているので、激しく動かせば、音も激しくなります。

Demo Movie

ちなみにマウス遍歴

一時期、Maxパッチの書き過ぎで、手首が痛くなってしまったので、腕で動かすマウスをやめて手のみで動かせるトラックボールに変えた。
馴れまでの時間あったけど、現在はマシンの台数分所持して常時使用してる。

July 07, 2006

.anonymous light

anonymous light WORKS EXHIBITION
LESSON [super high light]

2006.7.5(wed)〜16(sun)
11:00-19:00 lastday till 17:00
ギャラリーRAKU(京都造形大学)
入場無料

■WORK SHOP 「カメラの遊び方」
7.16(sun) 14:00〜16:00
参加申込み不要 定員:15名 対象:小学4年生以上

anonymous lightという3人グループの展示用インスタレーションに、プログラミングでちと関わったので、お知らせします。

めずらしく、音も込みでやっとります。
ボツの音。始めと終わりがあるようなものより、淡々と音を連続させるだけの方がいいかも、ということでボツになったけど。悪くはなかったので、適当なハードディスクにあった映像を当ててみた。

展示の様子は、後ほどアップできると思います。

今回、パッチの他にキャプチャアプリも同時に動いてて、それとの兼ね合いがうまくないと、日に一回ぐらいMaxが落ちるっぽい。展示もののプログラムでは、書く前から、落ちないように気をつかいながら書くけど、やはりいろいろやりたくなるから結局は、トレードオフになる。
落ちるの分かってるなら、落ちたら自動でパッチを開き直せば良いんだけど。常套な手としてAppleScript以外に手軽にできねーかなと考えて、ふと、jit.net.send+recvを思いついた。send,recv同士で、接続が確立してるかをモニタリングしてくれるので、recvを含んだパッチを、sendで監視して接続が切れたらファイル開きなおすパッチをアプリ化して常駐させておけば、落ちるたびび開き直してくれるかも。

pm_win.gif追記:
パッチ・監視アプリをやってみた。
jit.net.recvを監視アプリ側に、jit.net.sendをパッチ側に使って、接続が切れたら、shellオブジェクトで開き直す。
て、具合。パッチが開いたときに、監視アプリも同時に起動するようにしておくとベター。

このビデオ分かりにくいけど、パッチを手動で閉じてもすぐ自動で開き直してる様子です。

June 09, 2006

.HelpViewer

hepv.gif

Max/MSPアプリケーションフォルダ内のヘルプパッチを一覧表示するパッチ.
/patches/extrasに入れて活用してください。

This MaxPatch can list up all ***.help patch in Max/MSP application folder.
Drop this patch at /patches/extras for useful.

Update Log
2006 06/09 : remake Serch Box
2006 02/19 : add Serch Box
2006 01/19 : change design
2005 10/13 : change design
2005 08/15 : first release

I have cheaked on OSX、Max/MSP4.5+.
HelpViewer(update 2006 6/9)

April 19, 2006

.Stupid JS Trick

Stupid JS Trick
Cycling'74のWebサイト内の記事。
Jamomaで実装している、subpatcherや、bpatcherのサイズを自動的に変更するテクニック。のJavaScript部分の一部について解説してる。

Jamoma自体は、かなり込み入っていて、制作側もsend&receiveが混雑したりしないのかなと思ったりする。
紹介記事中のJavaScriptは、Jamomaでは、コンポーネントの"jmod.gui.mxt"内で実装されている。このパッチは、GUIの基礎になる部品で、背景の画像やボタンの配置やらが、親パッチから設定することができる設計になっている。

ところで、Jamomaを一通り解読してみると、構造部分がかなり書き込まれていて、それのせいで立ち上がりが遅かったりする。けど、XMLで設定を変更したり、モジュールを自作する、し易さが確保できていそうな雰囲気はあるのだが、だが、やっぱり、煩雑な印象がかなりある。

このJavaScriptを単にコピペしても、使い勝ってのいいものにはならないので、改良して組み込む予定。

March 07, 2006

pegwave

pegwave by peg
2005, Application

Visual, Direction : me
Sound, GUI Design : yosuke hayashi

 動かした一連の動きを記録が出来て、その動きを繰り返し続ける、8本のフェーダー、つまみは、映像と音にリンクしている。

...
 異なる周期運動の組み合わせによって複雑な周期性を生成して、それでなんかしてみようってのが、はじめ。
 pegwaveには、インスタレーション版があって、実際に、記録した動きを、繰り返し続けるようにしたモーターフェーダーを使用している。
...

Download pegwave for Mac OS X (10.2 and later)
peg

pegwave.gif

February 27, 2006

.Thanks

DBV Static 0.6 - Open VJ App from Gabocoy

dbv-staticの検証や感想など、書いてくれてます。
dbv-staticについての英語ドキュメントをまったく作ってないのですが、実際に良く触ってもらって、理解してくれてます。

彼も、vadeという、リアルタイム映像処理のプログラムを、Max/MSP+jitterで制作しています。そんな関係でdbvにも興味を持ってもらって、細かく検証してもらえたのだと思います。

vade ver.1をもらって、触ってみたのですが、開発中のものでユーザーフレンドリーなインターフェイスデザインになってなかったので、なかなかちゃんと動かせなかったのですが、スキームの片鱗はなんとなくは見えて、
まあ、dbv-staticと比べると非常に複雑なことをしようとしていて、3D表現を利用した方法論が主軸になってるようだ。

誰もが使うことが想定のリアルタイム映像ツールで、3Dの表現を持ち込むのって、かなり慎重に設計をしないといけないと自分では感じていて、二の足踏んで、踏んで、作ってみては、結局やめて、ってなってるのですが、vade ver.1についても、まだベターな着地点は見えていないと感じた。今後に期待。

vd001.gif

あと、
Sorry, techNote is Japanese only.

January 19, 2006

.maXcode

intel base Macが出てしまって、ついにCodeWarrior製のエクスターナルは動かなくなる時代が来てしまうので、XcodeでMaxのエクスターナルオブジェクト作りに手慣れようかと思い。
Cycling '74 || Writing Externals with Xcode 2.1
これそのまんまなぞってみたのだが、ビルドはできるけど、Max上で機能せず。昨日から苦戦中。

●error:#N:missing arguments for message "round"
クリティカルではないらしい、基本的なとこで間違ってるっぽいが全然とれない。

round_bug.gif


追記:
動いた。
class_new(),class_addmethod()らへんを、CW従来通りに書き直して、
object_alloc()も、newobject()にしたら動いた。

read more ".maXcode" »

January 08, 2006

.dbv-static 0.6 BETA

dbv/Download

November 26, 2005

.techNote.

最近は、Max/MSP関係の投稿は、こっちで書いてます。
techNote.

Maxに関して、ごくごく個人的な話題のときは、当blogで書きます。

October 24, 2005

.tc.rangeslider.js

rangeslider.gif

MaxのRange Barは、見た目で萎えるので、jsuiで作った。です。

Download file

Technorati Tags:

August 01, 2005

.j15

jitter1.5をひととうり見ての感想。
flash5とか、freeframeプラグインに対応してるのは、単純に幅が広がって面白い。
glで、ヴォリュームレンダリングができるのがよい。(非力マシンなのであまり活用できない)
音の可視化が容易にいろいろできやすそう。
高解像度の映像、画像が読み込める。
laptop orchestra for visualにぴったりな、net.send.recv
GPU処理のためのYUV変換系
java,jsにjitterオブジェクトをクラスとして使える→処理速度的な変化が微妙にあり。

全然関係ないけど、最近便利なものがサードパーティーより。
http://blog.imeem.com/nat/areO4MEW.html

July 02, 2005

.Gabocoy jitter workshop

2,3
Gabocoy jitter workshop@成安造形大
Max,jitterの基礎、jitterでの画像解析、FLASHやDirectorとの連携を体感できるワークショップを
成安造形の協力により開催しました。
準備していたものの、実際に受講者に会って初めて、何を知りたがっているのかがよく解り。
やりながら、軌道修正、後々役立ちそうなサンプルパッチを1日目が終わった後に作ったり、ひごろの蓄積が役立つ。

雑談のなかで。
ぼくは、Maxやアプリにこだわらず適材適所、目的のものを一番早く効率よく作れる方法をとっているが、
教育機関として、教える側として、何を選ぶかは非常に悩ましいようです。

これをきっかけに、テクニカルページを開設しました。よろしく。
techNote.

June 10, 2005

.lemur+Autechre

三日間の横浜出張も終わり。
ソニーCSLのオープンハウス見学で東京に来ていた赤松氏&iamas勢(うらやましすぎる)
とともに、五反田ドトールにて、唐突に繰り広げられたlemurのデモ。
実際に触ってみて、予想以上にいい感触。
でも、タッチパネルの反応の遅さを、スライダー等の線形な変化でごまかしてる感がひっかかる。

lemur.jpg

その後は、オウテカライブに移動。
久しぶりに、満喫できるかと思いきや、日々の規則だだしすぎる生活がたたり、
眠気におそわれる。そして、もはやオールに耐えられる年齢でないということを身にしみる。

June 04, 2005

.dby

今日は、岐阜の八滝ウッディランドてキャンプ場でRAVEイベントです。
VJしてきます。
今回は、いままでのスタイルから一変したことをやってみようかと、、、少し。。。

vjを割り切って、一度やってもようと思い立った。
きっかけは、ここら辺。
Recycled TV

たぶん、もうしない。

graxxxy.gif

April 18, 2005

.bixcp

躍起になって作ろうとしてたjitterオブジェクトが、すでにあってショックand驚き。
グラーツにあるエクストリームなアーキグラム建築の壁面に、これまたマンモス級のビックリディスプレイがアピアしてる。
それの制御がMaxでぇ、ネットワークで映像を送受信するのに、そのオリジンオブジェが使われてつぅーわけ!です。
大分前にMaxMLで情報出てて。秘密にしてたかったけど、まあそんなこと無駄だって。やい!、ネット全盛の世の中でぇい。オトコは知られて困るものは持っちゃいけねぃーZO'。ああ、そうなんだ。へーぇ。
つぅーことで。アィムラァイティング。しかも1年前の話だぁ。じゅるじゅる。
まあ、bixcpすげーけど、壁面ディスプレイ仕様にモディファイしてるから、もうちょいなんとかしてぃと思ふ。自分でやれぃ!。はいぃ!!。

bix

March 08, 2005

.cafe etw,京都で展示

をします。

"Cycle"
内容は、24時間分のetw内での映像と、それと同時刻のニュース画像と、日本付近の衛星画像。
三つを1つの画面に並べて、異なる空間を鳥瞰する作品。
fig01_a.jpg
P3080032.jpg

土台がMaxで描画はFLASHでシステムを構築してます。
Maxは、3つの画像を収集して、保存。FLASHでそれを読む。
jitterでの画像解析の結果を、FLASHに渡す。
ニュース画像は、10×10のデータベースを利用。
http://www.tenbyten.org/

January 20, 2005

.気まぐれにMax事

Maxと非Maxネットワークの関係

Gabocoyは拡張的ネットワーク表現を実践する集団です。
Gabocoyをしている中で、ネットワークとMaxを連携させることが多くなりました。
そこで、Maxのネットワーク関係について気づいたことなどを。
Maxは、標準のオブジェクトだけでは、インターネット上の文章を取得することですら不可能です。
しかし、様々なエクスターナルオブジェクトを使うことで、可能になっていきます。

read more ".気まぐれにMax事" »

December 21, 2004

.芸大ライブリハの映像

12月10日の芸大先端でのライブのスタジオリハ映像、

2004.12.10@Tokyo National University of Fine Arts and Music
DJ and VJ == Daito Manabe
Main sound programming == Taeji Sawai(portable [k]ommunity)
Sub sound programming Daito Manabe
Image programming == Satoshi HORII

daito.ws
掲載ページに直リンク

December 05, 2004

.ふー

本番ですが、
悲劇でした。ひさびさに。
jit.desktopにやられました。
GLで生成した画面を、jit.desktop(デスクトップのリアルタイムキャプチャ)、
で、マトリックスにして、エフェクトかけるパッチを、PBG4で作ってて、
7fpsぐらい出てたので、G5,2.5GHz DUALで、20fpsは出るとふんでいたのですが、
現場にて、動かしてみると、全然早くなりません、それどころか遅いです。
jit.desktopの仕組みの問題なのか?
マシン速度に依存しないで、なんでも等しく遅いというのも変ですな。

もう、しょうがないので、GLがリアルタイムに生成すべき映像を書き出して、
30分の映像をつくる。本番はGL使わず、パッチも大幅削除。

mikuni01.jpg

ああいう場所で、一時間だまって聞かせるというのは、難しいと痛感。

November 27, 2004

.win de jit

ただいま、本日のライブの準備中@元浅草ビル。
初めて、winでjitterしてます。
Pen4 3.2G 。G5 2GHz Dualと遜色ないです。
初め、落ちやすいとは感じましたが、しばらくしたらツボが解りました。
しかし、win自体が使いにくいので、萎えます。
win_max.jpg

November 21, 2004

.@toride

部屋の大きさには、全然合わないウーハー置いて、その間にスクリーン置いて、
作業中。
いいスピーカーで、気兼ねなく爆音を浴びてると、
音が体の中で鳴ってるように感じてくる。いつもこんな環境にいたい。

jitterで、640*480、24fpsを維持しようと思ったら、方法論はかなり限定されます。
jitterとのかけひきのようで、じりじり、フラストレーションたまります。
でも、やはり、高フレームレートで音と同期してると、まあ見てる分には気持ちがよいわけで、
、、、
toride01.jpg

November 01, 2004

.11/2のin dust-realは何をするかというと。。。

idr_preview.jpg
in dust real
chat、写メール、ネットワーク側からのイベントへのアクセスで、
会場を盛り上げる空間をつくることができる。

chat画面には会場のライブ中継があり。
chatのシステムは、Flash-FCS。
chatの文章は、OSCでMaxにおくられ、jitterで映像処理と、LEDの点滅制御。
写メールの写真は、jitterへ。
もち、一人でこんなシステム、一週間でできません。

chat、FCS周り:q
chat画面design:poki
写メールサーバー:ばたやん
デバイス:GATTI
jitter de GL:kanao
FCS2Max+jitter:TCY

総称:GAPPOKID+++

て、まだ完成してないけど、

October 30, 2004

.FLASHからMaxに日本語を送る

in dust realの準備で、FLASHからMaxに、OpenSoundControlで日本語送ろうと思ったら、
できないのですね、日本語。bug's stringsとエラーが出ました。

しょうがないので、文字コードに変換して送ることに。
しかし、FLASHはUNICODE。Maxはjis,Shift-jis。変換しなくては。
そんな経験ないので、途方にくれたが、
調べてみると、出てくるもんで、
http://ash.jp/こちらを参考に、
変換テーブルを、Maxパッチにうめこんで、一件落着。
FtoM_j.gif

October 11, 2004

.resonic.sir.kit

ARSでのresonic.sir.kitのライブの模様をアップしました。
Here

当日は、AudioIFのトラブルで、ターンテーブルを使用した本来のシステムでできませんでした。
大度さんのスクラッチによって、音、映像が同一のもののように生成し変化していく様が、
パフォーマンスとして、一番の見せ所なのですが、できず。残念。

一年ほど活動してきた上で、やっと僕は輪郭が見えてきた感です。
一区切りもできたし、いろいろ変えてこ。っと。


今日は、恵比寿で The SINE WAVE ORCHESTRA
SONAR含め、行きたーかったけど、ここは日本の真ん中。大垣。
11月頭に、IDRで行くので、自粛。

July 01, 2004

.yamaguchi

YCAMにて、初max講座。
ms.pinkyを利用した音と映像の同期。といった内容で、デモとパッチ解説。
大度さんの音マシン、ターンテーブル、midiコンと、僕の映像マシンの連携。
ライブでいつもやっていることは、体が自然と反応して作ってるようなところがあるので、
それを改めて解説するというのはむずかしい。

dbv1を構成を組み立てるときも、普段と勝手が違うので、やりにくかった。
普段は、一つのウィンドウの中で絵を書くように気ままにしてるが、
全体を意識しながら一つのユニットを作るというのはしんどい。
できてしまえば、楽ではあるが。。。

ツールを使うことを意識してやってるうちは、とてもぎこちなくなる。
意識しなければいけないことを意識せづできるようになるとき初めて、
ツールを使いこなしたと言えるようになるように思える。
それには、鍛錬や継続が必要となる。
画家が絵の具や筆の技法を意識してる内は、自分の絵など描けないことと同じようなこと。
そういう見方をするとdbv1は非常にぎこちなく見えてきて、嫌です。

ダンス公演の制作の現場にお邪魔していて、ダンサーの人の日常の姿勢やたたずまいが、
ぼくみたいな毎日マックに向かってる人間が意識しなければできない身体のシルエットを持っていて、
そこに身体のプロという意識をかいま見て、上に描いたようなことを思いながら、
MAX講座を反省をしてました。

yamaguchi02.jpg

June 15, 2004

.dbv1(DspBoxForVideo)

DSPBox用映像プラットフォーム。ベース部分の完成。
ここ一週間ほどこれに没頭してました。
DSPBoxの説明は上記のサイトを参考にしてもらうとして、
そのDSPBoxに操作性や使い勝手、構造を継承しつつ、映像を扱えるようにし、
かつ音マシーンとの連携も兼ね備えられるようにする試み。

映像ソースは、QuickTimeだけでなく、DV入力、Flashムービー等。
2ソースに対して、異なるエフェクトがかけられ、ミックスした後、さらに2つのエフェクトがかけられる。
映像の出力は現場の状況により、フレキシブルに変更可能で、
midiフェーダー、コントローラー系のアサインも自由に設定可能(予定)。

音と映像との連携は、音を扱う人から求められることが多い。
それだけ、音の人にも映像への意識が高いことを意味している。
そこで、音を扱うのと同じ様に映像も扱えるデザインを意識しました。
これの発展は、音系の人にどれだけ使ってもらうかに有り。

dbv001.jpg

May 26, 2004

.jitter2flash2fcs2streaming

京都のインスタも終わり、iamasに戻ってさっそく次の作業。
5月28日締め切りなので、あせりぎみ。
jitterで画像認識、その結果をOSCでflashへ、でflash communication server、でマルチストリーミング。
このシステム作りに四苦八苦。
乙女系flash使いのQちゃんに教わりつつ、昔のflashを使っていた青春を思い出しながらActionScriptに挑む。
でも、Lingoほど手に馴染んでないので思うように進まず。

read more ".jitter2flash2fcs2streaming" »

March 31, 2004

.PB2PB

jitterの話。
powerbook2台をFWでつないで、映像の入出力実験。

jit.qt.grabとjit.qt.videooutがお互いにopenしない。
リピーターハブを介してみるがうまくいかず。

前に、メディアコンバータでアナログで出力して、FWで入力させたが、やはり画質が悪い。

よくよく考えてみると、これができたとしても、DV圧縮して出力、で入力して解凍するはめになり2度でま。
マトリックスのまま出して、そのまま入力できるならベスト。そんなオブジェクトないからつくらないと。。。

どうにか、デジタルのまま映像をpoowerbook間でやりとりできれば、かなりやんちゃできると考えているのですが、、、

pb2pb.jpg

March 24, 2004

.After Live

大阪のライブでは映像カオスパット(以後KAOSS)を試みてみた。
ライブ中、突発的になる輪郭のハッキリした音に対して、即座に反応できる分かりやすいエフェクトが欲しかったりするので、
Macに音入力を分析して、MIDIでKAOSSのエフェクトのかけることを試みた。

当初考えたシステム。
カオスパットのエフェクトは大概がださださなので、最終出力をKAOSSにしたくなかったので、一度Macにもどしてから出すようにしていた。
が、KAOSSからの戻りの映像が汚すぎる。MacからRCAで出してKAOSS、でKAOSSからRCAでメディアコンバーター通してMacに戻しているので映像はぐちゃぐちゃ。
デジタルの入出力ができたらなーーーーー。映像機器を扱うメーカーさんへ。
のため、これは断念。
sys.jpg

残念だがKAOSSを最終出力として使うことに。
実際やってみたら案の定vjちっくになってしまい、封印。名古屋では使いませんでした。
ま、音と場所が変われば臨機応変に使っても良い。かな?一つ手間が減って、jitterのフレームレートも上がるし。

名古屋の時は空中マウスを試みたけどプログラムのケアレスミスであまり効果が出せなかった。うかつ。
どうにかこうにか、「見える」ようにしたいなと思うこの頃。

SONASHPEREも使ってみようかといじってみたが、OSCがうまくいかず、SONA2MAXができず断念。

.vvv
楽器の演奏は、いつでも同じことを再現できる。
それが「演奏」の条件の一つであるならば、ボクの今の志向は間違ってるのかも。
jitterで出してるライブでの映像は一秒後なにが表示されるかは、自身でも明確には把握できない。
『なんとなく』にしか解らない。音解析結果をパラメータにしてる部分もあるし。

例えば映像の譜があってそれ通りに操作すればいつでも同じものが表示されるようにはなっていない。
映像演奏を可能にするには、ここで一度広がり過ぎたものを整理する必要あり。

March 21, 2004

.nagoya

今日は名古屋カノーヴァンでライブ。
ありがたいです。連日できて。
出演は、mimiZ, tn8, Jean-Marc Pelletier, Resonic.sir.kit feat Keke

Jeanのライブは初めて見た。
脳内にランドスケープを想起させる豊かな音を出力してました。

リアルタイムでの映像処理とムービーの作り込む量の割合を今までは、8:2ぐらいでやっています。
つまり、映像素材はほとんど加工してないものを使って、リアルタイムでの処理にそのほとんどを任せています。
これの弊害は、抽象度の高い映像が続いてしまうこと。めいはりなし。
良いとこ。テクニカルな欲望を満たしてくれる(ほぼ自己満)。
その他もろもろを考慮して、次回までに修正。

67bea07c6130805a1e5a4e22ca41cd37-s.jpg1a63cbd57a691243463fb9b2162f0f44-s.jpg

Feed[Help?]
Site by Satoshi HORII. This website is under a Creative Commons License.
Powered by Movable Type 3.2-ja-2, jQuery, ThickBox and Interface elements. Made on Mac.