Generate Sound Composition

インターネットアート作品ライブラリ | 日常刺激

Generate Sound Composition

2025/6/21制作の作品

この作品は、視覚情報を聴覚体験に変換する感覚横断的なデジタル・コンポジションである。ユーザーが撮影した写真や選択した画像を分析し、その視覚的特徴を音響パラメータに変換することで、独自の音楽作品を自動生成する。現代のコンピュータビジョン技術とWebオーディオAPI(Tone.js)を組み合わせ、視覚芸術と音楽の境界を探求している。
作品の核となるのは、画像の色彩、明度、コントラスト、テクスチャといった視覚的要素を数値化し、これらを音高、リズム、音色、空間配置などの音響パラメータにマッピングする変換アルゴリズムである。画面に表示されるピクセル化された抽象的コンポジションは、この変換プロセスの視覚化であり、元画像から抽出された本質的な情報の再構成を示している。 ミニマルなユーザーインターフェースは、操作の複雑さを排除し、体験の純粋性を保持している。カメラアイコンとフォルダアイコンという2つのシンプルな入力手段、そして再生・停止という基本的な制御のみを提供することで、ユーザーは技術的な障壁なく創造的体験に没入できる。
本作品は、シネスシージア(共感覚)をデジタル技術によって人工的に創出する試みとして評価できる。しかし、単なる技術的実装を超えて、視覚と聴覚の関係性について根本的な問いを投げかけている。従来の音楽作曲が作家の意図や感情を表現手段とするのに対し、この作品では画像という「他者」の視覚情報が音楽生成の主体となる。
ピクセル化された抽象表現は、デジタル時代における画像の存在論を反映している。元々のアナログ的連続性を失い、離散的なデータ点の集合として再構成された視覚情報は、同様に離散的な音響イベントへと変換される。この過程で、オリジナルの画像が持つ文脈や意味は消失し、純粋に数値的・構造的な関係性のみが残る。
作品の体験設計は、偶然性と必然性の絶妙なバランスを追求している。ユーザーは画像を選択するという能動的行為を行うが、その結果生成される音楽は予測不可能である。この予測不可能性こそが作品の核心であり、日常的な視覚体験を異化し、新たな聴覚世界へと誘う装置として機能している。
Web技術の特性を活かし、特別なソフトウェアやハードウェアを必要とせず、ブラウザという普遍的なプラットフォーム上で動作する設計は、アート作品のアクセシビリティと民主化を実現している。これは、デジタルアートが持つべき社会的役割についての明確な表明でもある。
本作品は、ポスト・インターネット・アートの文脈において、テクノロジーと感覚体験の新しい関係性を模索する重要な実験である。従来のマルチメディア・アートが複数のメディアを並置することで効果を狙うのに対し、この作品では一つのメディア(視覚)を別のメディア(聴覚)に完全に変換する点で、より根本的なアプローチを取っている。
画像分析から音楽生成へのリアルタイム変換は、AIアートや生成的アートの領域における新しい可能性を示唆している。人間の知覚システムをモデルとしながらも、機械的な変換プロセスによって人間では体験し得ない新しい感覚的関係性を創出する点で、テクノロジーによる知覚拡張の可能性を具現化している。

作品へ直接アクセスする

Instagramではカメラ機能が動作しません。
ChromeもしくはSafariで開いてください。