CULTURE | 2023/06/05

人間がAIに「模倣」ではなく「創造」させるための「4つの指針」AI研究者とアーティストを両方経験して見える風景【AIはクリエイティブの何を変えるのか】

「AIとクリエイティブ」について考える際、爆発的な技術普及が始まったばかりの現状はどうしても「既存のクリエイターの作風に...

SHARE

  • twitter
  • facebook
  • はてな
  • line

「AIとクリエイティブ」について考える際、爆発的な技術普及が始まったばかりの現状はどうしても「既存のクリエイターの作風に似せた作品が大量に出回ったらどうするのか」という議論が多くなってしまっているが(もちろんそれも重要な議論だが)、同時に考えるべきは「AIを使ったどんな新しいクリエイティブが生み出せるか」ということだろう。

今回お話をうかがった徳井直生氏は、1990年代後半から「プログラミングを用いたアート作品」の研究や技術開発を行う一方、ミュージシャンとしても活動しており、事前に楽曲を用意することなくその場でAIによって生成された楽曲を用いてDJを行う「AI DJ Project」のライブパフォーマンスなども積極的に行っている人物だ。人間の創造性とAIとの関係の歴史をまとめ、その未来像について考察した著書『創るためのAI 機械と創造性のはてしない物語』も記している。

アーティストにとって、あるいは広告代理店や制作会社の社員といったクライアントワークを手掛けるクリエイターにとって、AIツールに対してどのように向き合えば新しいクリエイティブを生み出すことができるのだろうか。

聞き手・構成・写真:神保勇揮(FINDERS編集部)

徳井直生

アーティスト / 研究者株式会社 Qosmo 代表取締役 / 慶應義塾大学 特別招聘准教授

Computational Creativity and Beyondをモットーに、AIと人の共生による創造性の拡張の可能性を模索。AIを用いたインスタレーション作品群で知られる。また、AI DJプロジェクトと題し、AIのDJと自分が一曲ずつかけあうスタイルでのDJパフォーマンスを国内外で行う。2019年5月にはGoogle I/O 2019に招待され、Google CEOのキーノートスピーチをAI DJによって盛り上げた。 2021年1月、これまでの活動にもとづいて、AI技術と人間の関係性の未来像を提示した『創るためのAI - 機械と創造性のはてしない物語』を出版し 2021年度大川出版賞を受賞。アーティスト/研究者/DJ として技術と創造性の交わる幅広い世界で活動を続ける。 東京大学 工学系研究科 電子工学専攻 博士課程修了。工学博士。

プログラミング技術が「まだ見ぬアート」を生み出せるか

―― 徳井さんが「創るためのAI技術」に着目した経緯を教えてください。

徳井:僕は東大にいたんですけど、1998年、工学部で大学4年生に進級して研究室を決めるタイミングだったんですね。何をやろうかなと考えていたときに、ちょうどDJを始めて自分で音楽を作り始めていたので、これで何かできないかと思ったのが最初のきっかけです。

―― 当時はテクノなどがものすごく盛り上がっていましたね。

徳井:そうですね。一番クラブが盛り上がっていた時代で、毎週末よく遊びに行っていました。それで自分もDJをやりたい、音楽を作りたいとなって、サンプラーやシンセサイザーを見よう見まねで触っていました。

ただ、楽器経験が全くなかったこともあり、強烈なオリジナリティ、あるいは今まで聴いたことがなかったような音楽を作りたいと思っても、なかなかできず悩んでいたんです。

ちょうどそのころオウテカやエイフェックス・ツインといった当時「IDM(インテリジェント・ダンス・ミュージック)」と呼ばれる音楽が脚光を浴び、音楽のプログラミング環境も整ってきたこともあったので「自分はプログラミングも勉強しているし、これで何かできるんじゃないか」と思ったのが最初のきっかけですね。

―― オヴァルとかも出てきた頃ですね。

徳井:まさにオヴァルにもすごく影響を受けていて。彼は「Ovalprocess」という自分用の作曲ソフトウェアを開発し、それを用いた同名アルバムを2000年にリリースしているんですよね。ソフトウェアから、自分自身でも想像つかないようなリズムやテクスチャーが生まれてくる可能性にすごくワクワクして。

もう一つ、直接的に影響を受けた作品がカール・シムズによる進化のシミュレーションを使ったインスタレーション作品「ガラパゴス」です。

―― 「ガラパゴス」は『創るためのAI』でも大きく取り上げられていますね。

徳井:はい。1997年にメディアアートの美術館「ICC」が東京でオープンして、そのオープニング展示の一つが本作でした。モニターの中に仮想生命体が映っていて、鑑賞者が自分の気に入った仮想生命体を選んでいくことで、そこで交配が起こって次世代が生まれていく。最初はすごくシンプルな生き物だったのが、だんだん複雑で面白い動きをするようになってくるという内容です。

システムを作ったカール・シムズ自身も「何がどうなってこういう形をした、こういう振る舞いをする仮想生命体が生まれたのかを詳しく説明できない」「その説明できないところが面白いんだ」ということを言っていた。そのことが衝撃的でした。

工学部の学生としては「ソフトウェアは自分が命令した通りに動かなければいけない。それ以外はバグだ」と教わってきたわけですが、テクノロジーによって作り手自身も想像できなかったような作品が生まれ、価値を持ちうる可能性があるということにすごくロマンを感じました。そうした思いを抱えて人工知能、人工生命の研究をやっている研究室がたまたま自分の専攻にあり、そこを選んで自分のキャリアが始まったという感じです。

ただ、他のメンバーが「工場のロジスティクスを最適化する」「プロペラの形を最適化する」みたいなことをやっている中で、「AIを使った音楽をやりたいんです」という自分は研究室で浮いていました。

――『創るためのAI』で言及されている過去200年ほどの「アーティストとテクノロジー活用」の歴史軸で見ても、基本的にはアーティストの立場でテクノロジーを使って、自分のクリエイティブをより良いものにという人が多かったと思いますが、研究者から入るというのは確かに珍しいパターンなのかもしれません。

徳井:僕自身、そこまで論文をたくさん書いているわけではないこともあり、どちらか1つ選べと言われれば研究者というよりアーティストであるという意識の方が強いと思っている部分があるかもしれません。

とはいえ、テクノロジーを生み出すエンジニアや研究者も、本当に社会にとって価値がある、あるいは既存の固定観念を打ち破るものを生み出す際には、必ずアーティスト的な思考が大事になるということです。

そういう意味で僕はアーティストでもある一方、テクノロジーそのもの、特にAIにかなり興味と可能性を感じているので、アート制作を通してある種の研究も行うというか、テクノロジーの可能性を追求するという、その両面があるかなと思っています。

「AIを使った音楽」はもう日常に溶け込んでいる?

―― 徳井さんはアーティスト/研究者であるだけでなく株式会社Qosmoの代表でもあるわけですが、この会社はどんな業務を手掛けているのでしょうか。

徳井:現在の柱としては「アート」「コミッション」「R&D」の3つがあります。「アート」は自分たちが作品制作をして世の中に発表すること。「コミッション」はクライアント案件として、例えばショールーム向けのインスタレーションを制作する、企業向けのデータビジュアライゼーションを作るといった内容です。

「R&D」は自分たちのアート作品、クライアント案件で培った技術そのものを企業さんに提供する、あるいはAPIなどのかたちで技術をライセンシングするという取り組みです。例えばUSENが提供している店内向け音楽の、レコメンドやプレイリスト作成には僕がAI DJ Projectで作っていた選曲のシステムを発展させて、選曲してくれるAIのエンジンをAPI化したものが取り入れられています。

他にも、選択した場所の風景やアップロードした画像に合う音をAIが探してくれるウェブサービス「Imaginary Soundscape」、ビデオクリエイター向けに動画に合う楽曲の候補を自動選曲する「Video2Music」などを開発しています。

―― となると、もう既に世の中の結構な人がAI技術を活用したクリエイティブに触れていると言えるのかもしれませんね。

徳井:そうとも言えるかもしれません。まだまだ僕らは小さい会社なのでそんなに手広く展開できていませんが、最近は引き合いが増えていると感じます。何だかんだ言って僕たちの生活はBGMも含めて音楽が切っても切り離せない要素ですし。

これは「選曲」だけじゃなくて「生成」も関わってくる話なのですが、音楽を24時間生成し続けることも可能です。それがプロの音楽家に頼まなくても可能になってしまう。さらに人間の血圧や心拍数に合わせて、その瞬間ごとにパーソナライズドされた音楽が生成されるというサービスも今後出てくるかもしれません。

既にSpotifyなどでも「よく眠れる」「元気になれる」と謳ったプレイリストが人気を博していますし、そうした目的のために作られた、ある種サプリ的と言える音楽も増えています。始めと終わりがある、あるいはCDやストリーミングという既存の流通形式を伴わない、新しいかたちの音楽がこれから増えていくと思います。

こうした盛り上がりは、アーティストだけでなく開発者コミュニティが成熟してきたことも大きいと思います。僕は2022年の夏にアメリカに行って、Stable Diffusionがオープンソース化される前のStability AIに、正式メンバーではないもののプロジェクトには関わっているという人たちと仲良くなって、リリースの過程を間近で見ることができました。そこで驚いたのはAIエンジニアではない人が結構参加しているということで、元グラフィックデザイナーやウェブサイトのフロントエンドを開発していたという人がチームの内外にいるんです。

Stable Diffusionのモデルを作るには当然機械学習やAIの知識がかなり必要ですけど、それをどう使うとよりクリエイティブで面白くなるのかという観点ではそうした人材が色々と実験したり、ウェブサイトを作って運営したりしている。そうしたコミュニティの広がりも大きなうねりを生み出した一因じゃないかなという気がします。

―― これから何か新しいアートが生まれるかもしれないというワクワク感がずっとあることもあり、画像生成AIが話題になったころ、自分でもちょっと触ってみたことがあるんです。ただそこで「絵の素養がないから指示のプロンプトが打てないし、そもそも描きたいものがない」ということに気づいて愕然としてしまったことがありました。

徳井:その感覚はわかります。最終的に一般層にも広く使われるようになるのは、今の「いらすとや」が果たしている役割のように、仕事やサークル活動などで「ちょっとここでこういうクリエイティブがほしいんだけどな」という需要に応えるツールなのだと思います。Adobeやマイクロソフトなどがやろうとしているのはそういう方向性ですよね。

―― 逆に音楽はそれなりに好きなので色々遊べるかもしれないと思っているのですが、つまるところ生成にしろ調整にしろ各ジャンルの教養が必要になるので、プロの仕事を奪うほどになるのか?と疑問に思ってしまう部分もあります。

徳井:僕はDJに近い営みなんじゃないかと思っているんです。基本的には過去に人間が作ってきたコンテンツ、スタイル、ジャンルの組み合わせであり、ただ漫然と選曲するだけではダメで、ジャンルや楽曲の背後にあるコンテクストを理解していないと良いプレイはできないということなんじゃないかと。

クリエイターがAIに向かい合うための「4つの指針」

ーー ここまではアーティストにおけるAIとクリエイティブのお話をうかがってきましたが、各種制作会社や広告代理店など、クライアントの要望でクリエイティブを制作する「社員クリエイター」も含めた向き合い方、レコメンドがあれば教えていただけないかと思っています。

徳井:アーティストと制作会社の社員とで、そこまで大きく変わらないのではというところはありますね。最初に「こういうものが作りたい」という目的意識、イメージがあり、それに対してAIを使って大量に候補を出してもらって、その中から取捨選択するプロセスは一緒ですので。

―― 『創るためのAI』の中で徳井さんは、自身の創造性を拡張するためのAIとの向き合い方に触れていますね。

徳井:はい。以下の4つを挙げています。

①AIに「モノマネ」をさせる
→既存のクリエイティブの模倣を試す。それでも模倣しきれなかったところ、不完全なところから新たなアイデアや表現を産めないかと意識する

②AIの「間違い」や「予測不可能性」を大切にする
→最初からランダム生成ではダメだが、指示通りに動作しなかった「間違い」の中にも面白さを見い出せるようにする

③AIの「園芸家」になる
→建築家ではなくガーデナーのような意識。すべてをコントロールしようとするのではなく、たまたま生まれてしまったものに真摯に向き合い、愛でる

④AIを「誤用」する
→既存のソフトウェアなどが想定する目的・分野以外の方法で何か生み出せないか試してみる

先ほどアーティストと制作会社の人とで大きく変わらないのではと言いましたが、制作会社の人は今後よりアーティスティックな発想が必要になってくるかもしれません。「最大公約数的な解」を求める方向はどんどんAIがやってくれるようになる中で、想定外のことを面白がる姿勢が大事になってくると思います。同時に、この指針の「園芸家」の部分と言いますか、クライアント側も含めて取捨選択の目利き力もより重要になるのではないでしょうか。

ーー 例えばネットのバナー広告のクリエイティブで「A案は目標達成確率が80%」「B案は60%」と予測されたとしても、蓋を開けたらB案の方が良かったということはきっと起こり得ますよね。それを選ぶのは人間しかできないと。

徳井:それは確かに面白いですね。僕はいつも「人間が適度なノイズになることが大事だ」ということを言っているんです。売上を最適化するという目的だけで考えると、確かにAIの言うA案の方が良いかもしれない一方、その「最適な判断」に対してノイズでしかない人間が介入するからこそ、新しい表現が生まれたり、より良いデザインが生まれたりする。

最適化されたものしか生み出されない社会では、最大公約数的なつまらない表現で溢れかえってしまうでしょう。そういう社会で良いんだっけ?ということを考えていかなければいけないと思います。

人間は「単に生成されただけの作品」のみでは満足できないはず

―― 最後に、直近で徳井さんが注目している動きがあれば教えていただけないでしょうか。

徳井:GoogleのMusicLMモデルのような、テキストからまるっと音楽を生成するモデルが続々と発表されていることでしょうか。こうした動きの起点として、2020年にOpen Aiが「Jukebox」をリリースしたことには衝撃を受けました。歌手の名前とジャンル、歌詞を入力するだけで、1曲まるごと生成されるシステムです。

当時は30秒生成するのに10時間くらいかかったりしたのですが、最近のモデルでは数分で生成できるようになりました。こうしたシステムがアーティストや音楽産業、もっと広い視点では音楽文化全体にどのように影響を与えるのか、ということに興味があります。

AIを使ったコンテンツの生成技術は大きく3つぐらいの方向性があると思っていて、1つは僕がもともとやろうとしているような「新しい表現を作る」という、よりアーティスティックな方向性です。

もう一つは、「寝るための音楽」「集中するための音楽」など、AIが一番得意としている「パラメータを取って、それを最適化していくことで人間のパフォーマンスを最適化する」というようなコンテンツの方向性

最後は、消費行動を最適化する、アテンションを集めることに最適化する方向性です。

同じ最適化する方向でも人間の能力を最適化する方向と、人をどんどん受け身にする、考えなくてもいいようにするという意味で動物化するともいえる方向とが両方出てくるでしょうし、資本主義的な力学を考えるとおそらく後者の方が強くなってしまうだろうなという懸念もあります。

ーー オタク的なファン層に限定した話になりますが、今度AIで生成されたクリエイティブはある種のジャンル的愛好のされ方をするというか「AIで作られたとわかる質感が好き」のようなあり方をする可能性があると思っているのですが、いかがでしょうか?

徳井:どうでしょうね。個人的にはいちジャンルになるというよりはだんだん溶けていくような気がします。例えばシンセサイザーが生まれた時に、シンセでバッハの曲を弾いたウェンディ・カルロス『Switched on Bach』というアルバムが出てヒットしたということがありました。ただ、その後はさまざまな音楽で取り入れられるようになって一般化し「シンセの音を使ったから先進的だ」とは言われなくなりました。

加えて「AIならではの矛盾」というか、「精度が高くなればなるほど特徴が消えていく」という特徴があるんです。例えば少し前の画像生成であればある種のグリッチ感というか、人間には生み出せない異様な描写みたいなところが面白がられていた側面もあったと思うんですが、生成の精度が高まれば高まるほど「AIっぽさ」みたいなものが失われていくわけです。ただ、そうした「初期の荒い感じ」みたいなものが、例えばシンセサイザーにおけるTR-808のサウンド再評価のようなかたちでリバイバルが起こるというようなことはあるかもしれません。

ーー なるほど。

徳井:あとこれは言っておきたいのですが、例えばイラストについてStable Diffusionなどを使って生成した画像を「AIアート」と呼ぶことへの違和感がかなりあるんです。それはどちらかというとデザインに近いんじゃないかという。

人間がある作品を鑑賞する時、多くの場合作品の背後にあるアーティストの生き様、文脈も込みで味わっています。AIで生成されただけの作品と、それらの違いは皆わかるはずですし、受け手をもう少し信頼してあげてもいいんじゃないでしょうか。『創るためのAI』でも書きましたが、機械が人間のやることを代替できるようになったとしても、逆にあえて人手でやることの価値が生まれますよね。

加えてより短時間、安価にクリエイティブが生成できるようになると、これまで入っていなかった場所でも用いられるようになることが考えられます。その時にAIで生成した素材をどうレイアウトするのか、どんなテキストプロンプトを用いるべきかなどを考える新しい需要も生まれると思います。


「AIを使った広告生成」は既に現場で運用されている。「電通グループのAI活用」に見る、AIビジネス活用のメリットと注意点【AIはクリエイティブの何を変えるのか】