昨年冬から巷で話題のChatGPT(文章生成型AI)は、自然言語処理の技術を用いたAIチャットボットで日本語にも対応しており、どんな質問に対しても数秒~十数秒で文書を生成し回答してくれます。AIがインターネット上にある膨大なテキストデータから吸収・学習したものをベースに文章を生成するとされていますが、どういったプロセスを経て学習したり修正したりしているのか、そのプロセスは明らかにされてはいません。ただし、質問に対する回答が予めプログラミングされているものとは違い、その都度AIが文章生成をしているという点で、一応はAIが『考えて(?)』回答していると云って差し支えないのだろうと思います。
ただ、この新たな技術には賛否両論があり、特に教育界からは『児童・生徒や学生が自らの力で考えなくなってしまうのではないか?』との懸念が論じられる一方、国会をはじめ地方を含めた議会答弁や行政文書について、AIに文章を生成してもらえるなら時短や働き方の改善に繋がると歓迎する向きもあります。
そのような中、駄洒落で有名な全国知事会会長の平井伸治鳥取県知事は、定例の記者会見の中で「ChatGPT」ではなく「ちゃんと、ジーミーチー(地道)」にと、「県議会の答弁資料作成や予算編成、政策策定など県庁業務で職員が使用することを禁止する」と発表しました。
ところで、対話型AIのChatGPTを開発したOpenAI社(米)の最高経営責任者(CEO)のサム・アルトマン氏は、4月に来日した折NHKのインタビューに応じて、ChatGPTについて「世に“電子計算機”が登場した時のように、使うか使わないかではなくどう使うかであって、使っていくなかで必要な制度やルールの整備を進めていくことが望ましい。」とコメントしています。
と、云うことで、ご多分に漏れず私もChatGPTに登録して、お試し利用をしてみることにしました。
さぁて、何を尋ねてみようかなぁ…。興味関心のある事柄を質問してみました。すると、十秒もしないうちに画面に回答が打ち出され、読むと『ふむふむ』『なるほどぉ』と納得のいく満足な答えが得られました。しかも、過去にありがちだった不自然な日本語ではなく、説明文としては見事に調(ととの)った文章で、正直“凄い!”と思いました。それから二つ三つ質問をしましたが、その全てに瞬時に回答が与えられました。
かつて、テレビや自動販売機の黎明期に、中に人が住んでいるんじゃないかと疑った人がいたように、ネットの向こうに専門家が控えていて文章を作成しているんじゃないかと疑いたくなる完成度…と、思いかけたところで一つの疑問が浮かんできました。
どんな疑問かというと、私が質問して得た回答は、いずれも私の知りたかったこと、ということです。つまり、裏を返せば私自身は、よく知らないことばかりです。知らないからこそ尋ねてもいるんですが、それについてもっともらしい回答を与えられたならば、未知であるが故に『へぇ~そうなんだぁ…』と思う他はありません。ChatGPTがネット上の膨大なテキストデータを吸収・学習して”という謳(うた)い文句は、どこまで信頼できるものなのか…。そこで、私が一般の人以上に知っていることについて尋ね検証してみることにしました。
「児童発達支援事業所と児童発達支援センターの違いを教えてください。」
得られた回答は、児童相談所、児童発達支援事業所、児童家庭支援センター、子ども家庭センター、児童発達支援センターを混同した内容の回答でした。児童発達支援事業所をまるで児童相談所であるかのように説明し、児童発達支援センターを児童発達支援事業所であるかのように説明していました。何故このようなことが起こるのかというと、行政区分としての法的な施設種別名称と呼称(愛称)とがインターネット上に混在していて、AIにはどれが法的な施設種別名称でどれが呼称かの区別がつかなかったんだろうと思われます。
例えば、北九州市の児童相談所は呼称を「北九州市こども総合センター」と云い、兵庫県の中央児童相談所は呼称を「兵庫県こども家庭センター」と云います。この他にも施設種別としての児童家庭支援センターがある上に、こども家庭庁の発足に合わせて「こども家庭センター」が新たに全国各地に設置されるとのことで、どこの何というセンターがどのようなサービスを提供するのか、似たような名称ばかりが並び、AIも回答に苦慮したのだろうと思われます。とはいえ、AIが苦しむ筈(はず)もありません。プログラムの規則性に従ってネット上で最も多く使われている文言を抽出し、文章を生成しただけなのですから。にも関わらず、文章のスタイルは、いかにもそうであるかのような、もっともらしい仕上がりです。これが人間ならば、「専門家にお尋ねください」と答えるところをChatGPTはそうは答えません。そういう意味で言えば、よく解っていないものを熟知しているかのように伝えるのは少々無責任と言う他ありませんが、ChatGPTに責任を問うことはできません。何故なら、サム・アルトマンCEOの言葉を借りれば、“電子計算機”の回答を信じて用いるかどうかを判断するのは、それを使う人間だからです。
と、4月に試した時には上述の結果だったのですが、最近同じ質問をしたところ回答の精度がかなり向上していて、満点ではないもののほぼ90点以上の回答を示していました。どうやら日々学習し、バージョンアップ(成長?)しているようです。恐るべし、ChatGPT!。に、しても、最終的なチェックは人間がする必要のあることに変わりはありません。
インターネット上には正しい情報も置かれてはいますが、不確かな情報やフェイク(作為的な偽の情報)も置かれています。もしも正確な情報が少数で、不確かな情報やフェイクが圧倒的多数である場合には、ChatGPTはそれらをあたかも正しい情報であるかのように文章を生成してしまう危険を排除することができません。出典が明らかではないもの(文責不明)を、私達がChatGPTを出典(文責)として扱っても良いものだろうかという気もしますが、私達使う側がこうしたAIの弱点を弁(わきま)えた上で活用する必要のあることを思います。つまり、『AIを鵜呑みにしてはいけない』ということです。
とは言いつつ、私達が電子計算機やコンピュータープログラムの弾き出す結果を鵜呑みにして使っているように、いずれはそうなっていくのだろうという気もします。
今年5月に深層学習(LLM)の第一人者で、AIの父と呼ばれるジェフリー・ヒントン博士が、生成AIの開発を進めるグーグルを退社していたことが報じられました。博士は退社の理由を「AIのリスクについて自由に発言するため」として、「偽物の画像やテキストが溢れ、誰も何が真実なのかを見分けられなくなる世界が到来する」と警鐘を鳴らしています。事実、5月22日にツイッターにAI生成技術によるであろうアメリカ国防総省で爆発があったとされる画像が投稿・拡散され、株価にまで影響を与えるということがありました。
こうした画像は画像編集ソフトを使えばAIでなくとも行えますが、何故AI生成技術による画像をこれほどまでに警戒するのかというと、合成と違って編集(切り貼り)の痕跡が確認できないためです。何故なら生成AIは、文字通りプロンプト(入力条件)によりpixel単位で画像を合成ではなく生成するからです。
古くからSF作家がそれぞれの作品の中で描いてきたように、人類がAIに支配される時代がすぐそこまできているのでしょうか?スマートフォンの登場によって家庭の固定電話が風前の灯火になったり、音楽のリソースがレコードやCDから配信に変わったり、技術革新の動きを誰にも止められなくなることってありますが、ChatGPTを含む生成AI技術もそうしたものの一つなのかもしれません。
便利だけど恐ろしい諸刃の剣…皆さんはどう思われるでしょう?