新サイバー閑話(82)

生成型AI、ChatGPTとサイバー空間の歪み

 生成型AIを名乗るChatGPTの話題が絶えない。

 私がChatGPTのことを知ったのは、主宰するZoomサロンのOnline塾DOORSでメンバーの「情報通信講釈師」唐澤豊さんに報告を聞いたときである。今年(2023年)2月13日開催の第54回で、サイバー燈台の報告に「昨年暮れ、彼から『緊急事態発生』とのメールをいただいた。11月に公開したばかりのAI(人工知能)サービス、ChatGPT(チャットジーピーティー)をめぐって、グーグルのサンダー・ピチャイCEOがコード・レッド(緊急事態)を宣言、即座に経営方針を変更したというニュースを受けてのことだった」と書いている。

 その直後から朝日新聞など各種メディアでも盛んに取り上げるようになり、その後もChatGPTやAIをめぐる報道が引きも切らない。ChatGPTの開発元、OpenAIに投資しているマイクロソフトはChatGPTを組み込んだ検索エンジンやブラウザーを実用化することを発表、グーグルも自社で対抗して開発した対話型AI、Bardの検索エンジンへの追加を予定しているという。

 その間、唐澤さんから寄せられた最新情報は、目を見張るものだった。

・「情報通信講釈師」の最新情報と『探見』の実験

 いわく、ChatGPTを使ってコンピュータ・プログラムを「COBOL から Java にマイグレーション(移行)」できたとの報告があった。唐澤さんは「ソフト業界ではCOBOLという大型計算機時代に使われたソフトを使える技術者が高齢化して退職してしまい困っている、という話があったのですが、最近使われているメジャーなソフトに移行することが簡単にできるというのは、ソフト業界には朗報でしょうが、ソフトウェアの初級技術者には辛い状況かも知れません」と書いていた。

 いわく、「AIとチャット後に自殺」という事件が毎日新聞の有料記事にあった。ベルギーで30代の男性がチャットボット(ChatGPTと同じような自動会話システム)との対話にのめり込んでいるうちにやんわりと自殺に誘導されたらしい。唐澤さんのコメントは「オープンAIは倫理規定をきちんと策定しているということですが、オタク相手のサービスを開発・提供しているような企業は、倫理観などそっちのけで、面白ければ・利用者が増えればいい、といったことで、こうしたサービスを開発・提供している可能性はあるでしょうね。これでEUは規制強化の方向になりそうな感じがします」とあった。
 ちなみに、私にはこの対話システムがイライザと名乗っていたのが興味深かった。「イライザ」というのは、AI黎明期にアメリカのコンピュータ科学者、ジョセフ・ワイゼンバウムが自分の対話プログラムにつけた名前で、彼はプログラムの被験者が、コンピュータと深い感情的交流を持ち、人間と同等に扱いたがるようになったり、一部の精神治療医がコンピュータによる自動診断をめざしたりし始めたことにショックを受けたらしい。そのため『コンピュータ・パワー』(1976)という本を書き、「人間と機械の間には差があること、コンピュータに出来ることでもコンピュータにさせてはいけないことがある」ことを警告した。ワイゼンバウムが生きていたら、「それ見たことか」と言うかとも思うが、現在のAIがワイゼンバウムの想像をはるかに超えた能力を持ち、現代人がもはやコンピュータ抜きで生きていけないのも確かである。ノーベル物理学賞を受賞したロジャー・ペンローズが当時から言っていたように、物質と意識の関係はもっと親密なようでもある。

 さらに唐澤さんいわく、ダイヤモンドオンラインに「ChatGPTは世界を根底から変えるが、日本は開発の遅れで12兆円もの経済損失が生じる恐れがある」という記事が出ている、などなど。

 やはりOnline塾DOORSのメンバーで、ミニコミ誌『探見』を主宰している森治郎さんもChatGPTに大きな関心を持ち、そのオンライン会議にも唐澤さんを呼んで話を聞いたが、その後、会員にChatGPTに実際に質問をしてもらい、その結果を『探見』誌上で詳細に報告している。タイトルは<使って分かる欠陥・欠点 「ウソ」をつく癖がある>という堂々13ページの特集である。
 ChatGPTに何を聞くとどんなふうに答えてくれるか、「俳句と川柳の違い」、「プロ野球史上最高の投手10人」、「相対性理論とは?」など多岐にわたる質問が繰り出され、ChatGPTの回答とその評価が試みられている。商用週刊誌の立派な特集になる内容である。ちなみに投手の中に長嶋茂雄の名前が上がり、ユーザーが再質問すると、「申し訳ありません。長嶋茂雄に関する情報は誤りでした」と素直に訂正した例も報告されている。自分について質問したら、すでに死亡していると言われた人もいる。

 私の身の回りだけでも、これだけの波紋を広げているのである。世の騒ぎようも押して知るべしだろう。

・サイバー空間に蓄えられた情報の知恵と制約

 私がIT社会を生きるための基本素養として「サイバーリテラシー」を提唱して、すでに20年以上になる。インターネットの出現で成立したIT社会を、サイバー空間と現実世界の相互交流する社会ととらえ、これからのIT社会をより豊かなものにする知恵をさぐってきた。

 最近は、これもOnline塾DOORSで唐澤さんに報告してもらったメタバースを始めDX(デジタル・トランスフォーメーション)など、サイバー空間を新たに再構築しようとする試みが飛躍的に進み、いまやサイバー空間と現実世界の切れ目はほとんどなくなった。そこへサイバー空間に蓄えられた情報をうまく統合整理してそれなりの回答を提供してくれる強力な武器が現れた、というのが私のChatGPTに対する感想だった。
 つい最近までサイバー空間は、ユーザーの関心がある、あるいはユーザー好みの情報を彼らの履歴を参考に自動的に選んで提供してくれるから、人びとは知らない間に自分好みの情報だけに取り囲まれて、結果的に社会は分断される(イーライ・パリサーのフィルター・バブル、『閉じこもるインターネット』2012、早川書房)と言われていたのである。もちろん今もその傾向は拡大しているが、一方で、ChatGPTは誰が質問しても同じような回答を返してくる。これも「今のところ」と制約をつけるべきかもしれないが、ともかく当面は私が質問しようと、他の人が質問しようと、質問が同じならば回答も同じではないかと思われる(もっとも、同じ質問でも条件を付けると回答が変わるし、同趣旨の質問でも、ちょっと表現が異なると答え方も変わってくる。利用する心構えとしては、よい質問をすることが重要になってくる)。

 さて、ChatGPTが普及し、多くの企業や役所がChatGPTを使うようになれば、社会は分断されるより統合されるのだろうか。かつて新聞の機能として「社会を束ねる」ことが言われた。これからはChatGPTが社会を束ねるのだろうか。実際にはそうはならないと思うが、もしそうなったとしても、問題はもっと深いところにあるように思われる。

 ChatGPTが引き出す回答は世界中の個人、企業、学者などがサイバー空間に日々蓄積してきた情報を、オープンAIの人たちが校正したデータベースに基づいており、オンライン経由で購入した商品の履歴や閲覧したサイトの記録は含まれていない(当然ながら、デジタル化されていない文書や個人の見解などは含まれない)。
 <注>この部分の説明は唐澤さんのご教示によるもので、彼のコメントは「正確なプロセスはオープンAIからは発表されていないので解りませんが、私の想像では、それぞれの文章の語順や表現を、正しく、誹謗中傷などが無いきれいな表現に、オープンAIの社員なり契約社員なりが書き換えているのだと思います。英語ではPre-Trainedですから、人間が『事前研修』をしないとAIが判断することはできないということだと思います。ここでは「校正」という言葉が一番近いかな?、だからその結果、出て来る回答は優等生的な文章になる、ということだろうと思います。現時点では、AIが勝手に学習することはありません」ということだった。

 これもインターネット黎明期に『「みんなの意見」は案外正しい』(ジェームズ・スロウィッキー、2004年、角川書店)という本が話題になった。「正しい状況下では、集団はきわめて優れた知力を発揮するし、それは往々にして集団の中でいちばん優秀な個人の知力よりもすぐれている」として、最大公約数的な意見はけっこう正しいということを主張した本だが、それではChatGPTの提供してしてくれる情報は正しいと言っていいのだろうか。

 いくつか気になることを記しておこう。

 スロウィッキーは「そのような集団の智恵が発揮されるためには、いくつかの条件が必要だ」として、参加者の「意見の多様性(各人が独自の私的情報を多少たりとも持っている)、独立性(他者の考えに左右されない)、分散性(身近な情報に特化し、それを利用できる)、集約性(個々人の判断を集計して集団として一つの判断に集約するメカニズムの存在)」を上げていた。最後の集約性という意味では、ChatGPTはそれなりに正しい情報を提供してくれるすぐれたメカニズムと言ってもいい。

 しかし、サイバー空間上の情報がそれぞれ独立した立場で発せられていればともかく、ここに意図的に仕組まれた情報が入り込むと、その答えは大きい意味で歪められたものになるだろう。為政者や権力者、大企業がサイバー空間の情報に介入しているのはすでに明らかで、これからむしろそういう動きは増してくるだろう。ChatGPTは多様性、独立性、分散化をうまくすくいとるより、むしろ画一化を推し進める恐れが強い。

 さらにこういう興味深い指摘が、すでになされている。たとえば日本のある女性利用者によると、ChatGPTのようなデータベースに蓄積された情報を書いたのは圧倒的に白人男性が多く、そのため男性視点というバイアスがかかっているという。また、少数民族の人たちから、自分たちの言語や文化を良く知らないのに、生成系AIのデータとして許可なく勝手に使うな、という反対運動の動きもあるという。これらはなかなか解決が難しい問題で、LGBT・マイノリティーの尊重という問題とも関わってくる。

 歴史的に見れば、こういうことは時代の風潮、地域の特性といった形で常に存在した制約であり、何が正しいのかを判断するのは難しい。だからサイバー空間だけが問題だということはないけれども、にもかかわらずサイバー空間は全地球を覆う単一の空間であり、為政者や権力者が資金や労力をふんだんに使って思うがままに操ることができる点で特有の危惧を抱かせる。

 群馬県高崎市で開かれていた先進7か国デジタル・技術相会合は4月30日、「信頼できるAI」の実現をめざす共同声明を発表したが、大きな視野での議論が必要になるだろう。<折々メール閑話>㉚でも紹介した孫泰造『冒険の書』は、コンピュータに代替できる知識はもはやコンピュータにまかせて、コンピュータではできない知的活動をしていくことが大切であり、またそのための新しい教育システムを築き上げるべきであると提言していた。妥当な意見である。私たちのOnline塾DOORSでも、こういう問題に積極的に取り組んでいきたいと考えている。 

 

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です