
- BUSINESS
- 2023.05.19
ChatGPTはいまのところ「天才」ではなく「愛されポンコツキャラ」くらいのほうがいい。テクノロジーに対する「適切な期待値のデザイン」をどうすべきか
Photo by Shutterstock
日々テクノロジーが進化し、ビジネスでも生活でもどんどん組み込まれる中で「この技術は結局どういうことなのか」「どう活用すればもっと世の中を良くできるのか」を立ち止まって考えることはなかなか難しい。
であれば技術の知見がある人間がわかりやすく噛み砕いて解説するコンテンツを作ろう、という経緯から誕生したメディア「THE TECHNOLOGY REPORT」。創刊当初は紙媒体を発行していたが、2023年に入ってからはnoteに場所を移し「THE TECHNOLOGY NOTE」を展開。「AI」「次世代SNS」「メタバース」などの特集テーマを毎回設定し、クリエイティブとテクノロジーを横断的に理解する「テクニカルディレクター」たちによる興味深い記事が2週間に1回ほどの更新ペースで掲載されている。
今回は同メディア発行人の清水幹太氏(BASSDRUM)、編集長の土屋泰洋氏(Dentsu Lab Tokyo)に登場いただき、特集で扱ったテーマに関する「テクノロジー放談」を実施。日本中で大きな話題を呼んでいるChatGPTを題材にあれこれ語っていただいた。
構成:神保勇揮(FINDERS編集部)
清水幹太
BASSDRUM / テクニカルディレクター
デザイナー・プログラマーなどを経て、株式会社イメージソース、株式会社PARTYでクリエイティブ・ディレクター / テクニカル・ディレクターとしてシステム構築から体験展示まで様々なフィールドに渡るコンテンツ企画・制作に関わる。2018年、テクニカルディレクター・コレクティブ「BASSDRUM」を設立。
土屋泰洋
Dentsu Lab Tokyo / リサーチャー,クリエーティブ・テクノロジスト
広告制作プロダクションを経て、2006年より電通。2022年よりDentsu Lab Tokyo所属。テクノロジーを活用した「ちょっと未来のコミュニケーション」の開発・実装を目指し、生体信号、ロボティクスなどの分野を中心としたプロダクトの研究・開発に従事。
ChatGPTは少なくとも「中級プログラマーの仕事」は奪いそう
清水幹太(写真左)、土屋泰洋(写真右)
清水:今回、こうやって土屋さんと話しているのは、「THE TECHNOLOGY REPORT」というBASSDRUMとDentsu Lab Tokyoとのコラボ企画を行っているからです。2022年は紙媒体で、今年はnoteで展開していて、まだちょっと手探りな感じで運営しています。
当初は世の中の技術的トレンドや事例をまとめて、クライアントの皆さんのビジネスに活用してもらえればいいなと思い始めました。テクノロジー関連の記事って横文字が多くて難しいじゃないですか。詳しくない人でも読めて、きちんと使える技術情報を提供したいということです。
それと同時に、ハイプ的なバズワードで終わる言葉もあれば、イノベーションとして残り続ける言葉もありますが、それを技術者がリアルタイムでどう感じたかということを残しておくことは、それはそれで価値があることなんじゃないかと思ったんですね。そういうわけで今年はnoteに移行し、さらにFINDERSの場を借りてテクノロジー放談みたいなことをやらせてもらうことになりました。
土屋:紙だとどうしても発行までに時間がかかるので、即時性が出せなかったんですよね。去年から今年にかけてStable DiffusionやChatGPTなども登場してえらいことになったなと。もう毎週ペースで新しいサービスや議題が出てくるのでもっとペースを上げなければと思うようになりました。本当はAI以外のことも扱いたいんですが、時期的にはやはり取り上げざるを得ないなと。
というわけで今回はChatGPTの話をしたいと思います(THE TECHNOLOGY NOTEに掲載した記事はこちら)。
清水:ChatGPTのサービス開始っていつでしたっけ?
土屋:プロトタイプが公開されたのが2022年11月30日でした。
清水:まだあれから半年ぐらいしか経ってないんですね。自分でも信じられないぐらい毎日使うようになっちゃいました。初期の「これ面白い!」と遊んでノリを理解した時期を経て、今年2月ぐらいから実用フェーズに入り、4月ぐらいからは「よりちゃんと使うためにはどうすれば良いか」を深めるようになってきた印象があります。土屋さんはどうですか?
土屋:最初に言語モデルとしてのGPT3が発表されたのは2020年6月ですが、当時はまだそこまで自由に触れなかったですし(API利用の人数制限を撤廃したのは21年11月)、技術者以外でも触れるインターフェイスもありませんでした。
それがChatGPTというサービスとして登場したことで、ちょっとしたサーベイのアシスタントや、アイデア出しの壁打ち相手としても結構使えるね!という話が一気に出てきましたね。この時期に弊社内でも、適切な使い方を推奨するためChatGPTの注意点などをまとめた利用ガイドラインが発表されています。
その後一気に一般向けニュースで取り扱われるようになり、運営会社であるOpenAIのCEO、サム・アルトマンは岸田首相と面会しましたね。プラグインも出てきて企業のサービスに応用されるケースも増え、セキュリティをどうするのかという議論も行われています。ただ、僕自身はそれまで生成AI関連に夢中だったこともあってまだあまり試しきれてないんですよ。清水さんはどんな場面で使っているんですか?
清水:僕が一番使っている場面はプログラミングですね。ChatGPTは回答が明確に存在する質問が最も得意とするところでもありますし。
それもあって最近よく「プログラマーの仕事がなくなるぞ」と言われるようになりましたが、さすがに全プログラマーが失業するとは思っていません。具体的に危ないのは中級プログラマーです。上級プログラマーはChatGPTの学習元になるようなコードを書く層なので今後も安泰でしょうが、中級者は「上級者の作ったものが頭の中に入っている」ことが強みだったにも関わらずその差が一瞬で埋められてしまいます。初級者と中級者の差が無くなってしまうからです。ただ、それは多少知識があればものを作れるようになる「プログラミング民主化の時代」になるとも言える気もします。
土屋:AIの歴史にはエキスパートシステムというものがあり、特定分野の専門家の思考をシミュレートする試みが1970年代から続けられています。ChatGPTを発展させるようなかたちでエキスパートシステム2.0みたいなものが生まれたらかなり面白いと思いますね。
加えて、清水さんが言うプログラミング分野での活用は質問を感じ取って考えるというより検索に近い気もしますね。最大公約数的なものが出てくるというか。
清水:検索より楽なんですよ。プログラミングをしていてエラーが出たときに、コードをそのまま貼ると「具体的にこの箇所がエラーの原因です」とすぐに導き出してくれて、これが進化すれば週休4日制も夢じゃないなと。
土屋:仕事をむしろ奪って欲しいと(笑)。
清水:ただ、無からものを作れるわけじゃないですけどね。
AIサービスの「どれだけスゴそうか」という期待値コントロールが今後必要になる
土屋:最近はプロンプトエンジニアリング(AIに適切な回答を出力させるための命令文の作成技術)なんて言われたりもしますけど、いわゆるディレクションの技術ですよね。段階的にやり取りするよう指示すると、適宜質問もされたりして回答クオリティが上がっていく。オリエンの仕方みたいだなと思ったりしました。
ただ、これもよく指摘されていることですけど平気で嘘を付かれるのが怖いです。会話が成立してしまうがゆえに汎用人工知能なイメージを持ってしまいますが、裏側は数理モデル、つまり確率論ですよね。それを単語レベルで生成している。言ってしまえば「あんまり仕事ができないけど返事だけは良い人」みたいな(笑)。
対話型UIのChatGPTによる返答が、あそこまで流暢になってしまうと使う側にも万能感が醸し出されてしまうのが問題だなと最近思っています。このまま活用が広がると、間違った回答を気づかず使ってしまい大変なことになる人がたくさん出てくるはず。
今回、THE TECHNOLOGY NOTEに掲載したDentsu Lab Tokyoの、なかのかなさんによる記事「おしゃべり人工知能の憂鬱」でも言及されていましたが、AIも今後、見た目やキャラ付けをちゃんとデザインして「万能な存在ではない」ことをアピールしなきゃいけないと思います。
「ヒューマンエージェントインタラクション」という学問領域があって、先導しているのは実は日本の研究者なんですよ。その中で「適応ギャップ仮説」という考え方があって、ハード(ないしロボット)にしろソフトにしろ、人型だと「きっと賢いんだろう」と思われがちで、要領を得ない回答が返ってくるとガッカリされて使われなくなる傾向があります。一方でオモチャみたいな見た目をしているのに「意外と便利じゃないか」という風に思われると長く使われる傾向にあるそうです。
つまり、ある種の「弱さ」みたいなものがあった方がユーザー期待値をコントロールできる。ChatGPTも、もっとか弱い感じにした方いいんじゃないかと思うんです。
清水:おっしゃる通りで、単に確率論でしかない、「合っている確率が高そう」でしかないことは「知っている」ことと全然違うんですよね。データが無数に存在することと、知っている=正確な回答を導き出せるかどうかは別というか、無知であることがわかりにくいというか。ChatGPTは間違った回答をすることがあると思われにくいキャラになってしまっている。
テクニカルディレクターの泉田隆介さん(マニュファクチュア)が矢沢永吉の名言をもじった記事「俺は良いけど、AIがなんて言うかな?」でもありましたけど、ここではAIをパートナーとして道徳・美学など抽象的な判断軸を自分の中にインストールしていくことが可能かということを問うているわけですが(同時に当然ですが「AIは決して思考をしていない」とも強調しています)、「可能性が高そうな回答を出力してくれる」となるとどうしても人間の認知的にはスゴいやつというようなイメージが形成され、なんなら感情移入する人すら出てきている現状で、それは危険物にもなりえる。クリエイティブによってコントロールしなきゃいけない部分かもしれないですよね。
土屋:対話型プログラムの歴史の初期に誕生した「ELIZA(イライザ)」は、カウンセリング、セラピーのために開発されました。「それで?次は?」と質問されて打ち返すのはプログラミング的な手続きでしかないのに、セラピー的な効果も生じてしまう。
なので逆にユーザー側がAIにできること、できないことを気にしなきゃいけないと思います。ChatGPTが学習しているデータは2021年9月までのものなので、現段階では2022年以降の出来事、例えばロシアによるウクライナ侵攻のことを聞いても回答されません。そうしたことをわかりやすく紹介している映像も見かけました。
清水:NFTとかもそうだったと思うんですが、テクノロジーの具体的な使い方、展開の仕方みたいなものが噛み砕かれて提示された瞬間に、いきなりハイプが到来してしまうんですよね。NFTであれば「何十億で売れた」から、さも「これでデジタルデータの所有権が完全に確立された」かのような過大評価が生まれてしまう。ChatGPTであれば「聞いたらなんでも答えてくれるスゴいAIが出た」みたいな感じに今なってきてますよね。
ただ、自分の生産性アップにかなり寄与するのは確かなので潰してしまうのはもったいないし、健全に育ってほしい。暖かく見守ってあげたい子というか。
土屋:使い方の話で言うと、今はちょっとChatGPTを使っただけで「AIが書いた○○です!」みたいな宣伝文句を言えてしまうところもありますよね。今年2月にアメリカのSF雑誌『Clarkesworld Magazine』が「急に数百件ものAI執筆作品が寄せられるようになってしまった」として作品公募を中止すると発表したという話が日本でも話題になりました。
Just to be clear, this is NOT the number of submissions we receive by month. This is the number of people we've had to ban by month. Prior to late 2022, that was mostly plagiarism. Now it's machine-generated submissions. https://t.co/YJdjBOTFmy
— clarkesworld (@clarkesworld) February 21, 2023
あとはTwitterで「コンサルが『ChatGPTに分析させました』っていう資料をドヤ顔で持ってきたけど、そもそも分析はお前の仕事だろ」というようなツッコミを見かけました(笑)。それこそコードを書く手伝いをしてもらったとかならまだしもという。
清水:メディアでも、褒めるにしろ貶すにしろ極端なことを書いて煽った方がPVが伸びがちですし、今は過大評価する方向にどうしても向きがちですよね。この対談ではそうした意味では流行りの言説とちょっと違うタイプの意見を載せていく方向にしたいと思いますね。
土屋:ChatGPTに限らず、テクノロジーが話題になると逆にその可能性を狭めてしまうことが少なくないんですよね。たとえばメタバースでも、いわゆるバーチャル空間でアバターを介してコミュニケーションを取る「ソーシャルVR」だけが可能性の全てではありません。
ChatGPTもそうで、たとえばレコードプレイヤーという技術の誤用によってDJ文化やスクラッチが生まれたように、今みんなが想定している使い方ではない、いわば「間違った使い方」を探っていくことも大事だと思います。「これはヤバい!」だけなら誰でも言えますしね。