SSブログ

20230313:人間だって嘘をつくし、間違える(生成AI基-大規模言語モデル) [電脳サイエンス考]

 MS社が検索エンジンとして "Bing" に導入した "ChatGPT" が世界中で話題となっていて、それは日本でも例外では無い。
 問い合わせに対して "正しい" 返答する事が多いが、"間違い" もある。 命題を与えると本当にそれらしい文章を書き下して、人間が書いたモノかAIによるものか区別が付かない程に完成度が高い場合もある様だ。

 が、大方の新聞は "間違い" を見つけて
   -だから信用できない
   -実用化にはまだまだ・・・

ってな論調が多い。
 しかし、人間だって間違いをしでかす。 完璧な人間なぞどれ程存在するのか疑わしい。 なのに、AIのそれを鬼の首を取ったかの様に否定材料にするのはどうか・・・な? 間違いを "間違いとした学習" を積み重ねて行けば間違う確率を↓する事は可能だろうに。

ところで:
 生成AIをベースとした大規模言語モデルは過去の "ファクト" :
   A は B ( A ≡ B )

とする超膨大な事例を学習して知識として蓄えている・・・とすれば、"嘘" をどう見分けるのか、その為には何が必要なのか、老生にはとても興味がある。 だって見分けられなければ嘘が嘘を呼ぶ・・・つまりは "嘘の再生産" が拡大していってしまう。
 例えば、今は大昔に "ルイセンコ学説" ってのがあって、スターリン時代に政治の庇護を受けて罷り通った事があったが、結局は "正当" 科学が勝利した "事件" があった。 これなんぞをこのAIに検証させたらどうなるのか・・・試して観たいものだ。
 また、例えば
  ①ゴッホが描いた絵と、彼のタッチを学んだAIが描いた絵を見比べて、

 或いは
  ②ヘミングウェイが書き下した小説と、彼の文章スタイルを学んだAIが創作した
   作品を見比べて、

このAIがどちらがホンモノって判断するには何が必要なのか、何を前提とすれば良いのか・・・等々、興味が尽きない。

そう言えば:
 学術論文を書き下すAIも出現し、Nature誌(英)では明記さえすればAI利用論文だって査読にパスすれば掲載される扱いの様だ(但し共同執筆者扱いは不可)。 これに対してScience誌(米)ではAI関与論文自体を拒否しているとの事だ。

が・・・:
 今後は実験結果の解釈を含む様々な過程でAIが関与、或いは作成した学術論文が大量生産されだしたらどうなるのだろうか。
 恐ろしい様な、AIとの共生がタメされている様な・・・

ついでに・・・:
 この種のAIが更に革新していけば(、或いは既に)古いノートを使って毎年同じ講義を繰り返す教授は淘汰されていく・・・のは大歓迎だ(老生の学生時代は確かにこう言う高齢教授がいた)。

そして・・・:
 小器用な学生さんなら卒論命題に対して生成AIを駆使して小論文を書かせ、"適当に手直しして" 見事に最高点をとって卒業・・・何て事が絵空事ではなくなるのでは・・・先生等はそれを見抜くAIを欲しがるに違い無い。
 そう言うAIも、AI自身が開発するのだろうか・・・
 だって今や既に部分的ではあるけど所謂 "シンギュラリティー" を越えたAIが登場舞台の袖で待っているかの様な時代・・・そんな感じさえするのです。

共通テーマ:日記・雑感