水曜日, 1月 31, 2007

20070131

早いもので1月も終わり。openstudioに向けて少しずつだが前進している。年次制作発表はものは色々あるんだけど最終的に修士制作につながるようなものでみせられるものはまだない。

最近はitunesやipodの中の音にも飽きて、webからダウンロードしたmixばかり聴いてる。djってのはやっぱ有難い存在で、知らないいい曲を沢山教えてくれる。常に聴いたことのない音楽を聴いていたいし、ジャンルはどんどん広げていきたい。dj、やりたい。つなぎが綺麗で音割れとか針の音とかしないようにすればいいのかと思ったらそういう訳でもないようなのが何か深くて渋い世界だな。bpmどんだけで何時間もってったとか...。ipodのシャッフルでもたまに思うけどつなぎとか選曲がちょうど今の気分にジャストで合った時のあがる感じってのは独特。

wadada
visions inc

お千代保稲荷行ってくる!

火曜日, 1月 30, 2007

microphone update!


抵抗とキャパシタとステレオミニ端子追加。ユニバーサル基盤に取り付けたし綺麗にインストールできそう。あとはcdsの値を確実にとれるようにすれば機構はひとまず完成。マトリクスledとか使って録音/再生の状態とかメッセージのありなしを表示できるようになれば最高。

日曜日, 1月 21, 2007

my first microphone


amsoundで音声を入力するためのマイクが必要なんだけど、Macだとプラグインパワーのマイクが使えないので、自作することに。マイクのレベルからラインのレベルに引き上げるために電池を使うらしい。ケーブルは100円ショップで売ってる耳元スピーカーのケーブルを切って使えばプラグをハンダ付けする手間が省ける。handmade electronic music読みながらみの虫クリップとコンデンサマイクと3V電池でテスト。本当ならキャパシタ(コンデンサ)、抵抗も組み込んで接続先に電圧がかかりすぎないようにすべきなんだけど、とりあえずこれで動作する。すげー簡単。とはいえ、YMMV = Your mileage may vary。at own your riskで。

水曜日, 1月 17, 2007

handmade electronic music

handmade electronic music
片付けしてたら目に付いて、読んだら悩んでたことが一気に解決した。超基本。電池とみの虫クリップとスピーカーで実は結構遊べる。音楽の聴き方/聴かれ方ってもっと色々あっていいんじゃないかというのはずっと思っている。インタラクティブな音楽とか、音だけのゲームってのは一般化しないのかな。何かそういうプラットフォームみたいなものを作ってジャンルを作り上げてしまえばいいような気もするのだけど。音だけのゲームって目が悪くならないし寝ながらとか目を閉じた状態とかで遊べて可能性あると思う。

金曜日, 1月 12, 2007

designing interactions

designing interactions
必読マストバイ。jamesが関わったsonyの携帯電話のプロジェクトも紹介されてる。block jamもあるな。英語だから読むの大変なんだけど今こそ読むべき。そしてあと一年の学生生活を超有意義にすべき。

冒頭でlanguages of interaction designというのがあって、カテゴリーを1-d,2-d,3-d,4-dに分けてる。1-dは詩や言葉、2-dはアイコンやタイポグラフィー、3-dはハンドルがついていれば人はそこをつかむ、とかプロダクトデザインなどにおける彫刻的な形態。4-dが音や映像、アニメーション。例としてAppleコンピュータで使用された、フォルダのデータサイズによって移動したときの音が変わる、というsoundfinderが紹介されてる。

iamasの授業で参加してるadvanced media schoolプロジェクトの場合は空間をpersonal, public, village, ad hoc、情報のコンテンツの解像度をknow, view, touch, manipulateっていう風に分けて考えてる。

いずれにせよ領域横断的で幅広い内容を取り扱わなくてはならない。最近やっとiamasみたいな場所が必要な意味が理解できた気がする。原始的な生活をテレビかなんかで観て、「あんな生活よくできるよなー」みたいに考えてる人は自分もまた誰かにそう思われてると思った方がいいかな。今のままで十分と思ったらそこで止まる。別に悪いことではないんだけど。

火曜日, 1月 02, 2007

num2snd(python)

あけましておめでとうございます。初詣で「プログラミングができますように」って祈ったらわかりました。pythonでwaveファイルを書き出します。参考にしたのはこことその中でも紹介されてる千葉大のppt。違うところはprepare_list(n)関数のところ。元々はarrayオブジェクトを使っていたんだけど、どうやら今のマシン(ハードディスクがクラッシュしたので友達のを借りてる)だとバージョンが2.3.5で2.4とかとは挙動が異なるみたい。のせいなのか実行できなかったので、単純にサンプリング周波数と秒数分の配列を作ってみました。その方法はここで。あとはほぼ同じ。
max/mspでpeek~使ってインデックスと数値を与えて音を生成したように、data[i]にひたすら数値を入れてあげれば音が出る訳だ...こういうのってやっぱその道の人からすれば当然で別に面白くも何ともないことなのでしょうか。


import wave, math
SAMPFREQ = 44100
LENGTH = 3

def wave_init(fileName, sampFreq):
file = wave.open(fileName, 'w')
file.setnchannels(1)
file.setsampwidth(2)
file.setframerate(sampFreq)
file.setcomptype('NONE', 'not compressed')
return file

def prepare_list(n):
data = range(n)
return data

def wave_write(out, samples):
out.writeframesraw(samples)
out.close()

def sin_wave(fileName, freq):
out = wave_init(fileName, SAMPFREQ)
samples = prepare_list(SAMPFREQ * LENGTH)
a = math.pi * 2.0 * float(freq) / float(SAMPFREQ)
for i in range(SAMPFREQ * LENGTH):
ft = int(math.sin(a * float(i)) * 30000.0)
samples[i] = ft
wave_write(out, samples)

sin_wave('newyear.wav', 2007)


ちなみにpythonで音を作るならpysndobj, pyaudioあたりが要注目です。あと、pdのエクスターナル書いたり。