SSブログ

20170428:AI ⑩悪意の AI [素人 AI 考]

 善良な AI 開発者の懸念(*) の通り、"意識して悪意を持つ AI" の出現も “今そこにある” 処迄来ている様です。
   (*) 拙ブログ:"20170325:AI ⑦"君" は楽しいかい?"

 MIT でロボット工学を修め、IT 企業で勤める過程で AI のリスクに気がつき、敢えて実証して警告しようとしている技術者が紹介されていました(日経紙:2017年4月12日:"味方が敵にも・・・悪意抑え込めるか")。

 高度な AI であれば人間の脳へ直接働きかけて操ってしまうリスクが懸念され、ひいてはまさに制御不能な AI の出現に繋がった時、人間はどう立ち向かうのか。

 フランケンシュタイン博士の様な AI 研究者やロボット研究者の出現を倫理規定だけで防げるのか。
 防げると信じたいが、余りにも性善説過ぎる気がします。

 オックスフォード大学等の、所謂 "学識経験者" が警鐘を鳴らした “12のリスク”(**)の一つが早くも現実の問題になっている訳です。

 AI は、専門家の予測を超えるスピードで進歩・進化している(***)。
 くれぐれも開発者は想定外・・・等と言って欲しくはない、厳しい現実なのに、素人は心配するだけ・・・
 どうします? どうすれば良い?

(**) 題目:”12 Risks That Threaten Human Civilization”
 出所:http://www.oxfordmartin.ox.ac.uk/publications/view/1881

 国内の紹介WEBとしては、例えば安井義浩氏(ニッセイ基礎研究所主任研究員)のものが参考になります(2015年5月15日付):
  http://www.nli-research.co.jp/report/detail/id=42435?site=nli
  “人類滅亡、12のシナリオ ー オックスフォード大学等の公表したレポートより”

 人類へ滅亡に向けた壊滅的 "12のリスク" とは、
  1.地球温暖化
  2.核戦争
  3.パンデミック、
  4.生態系崩壊(生物種絶滅)
  5.国際的(金融等)システムの崩壊
  6.巨大隕石の衝突
  7.大規模噴火
  8.バイオハザード
  9.ナノテクノロジー(の小型核兵器への転用)
  10.人工知能、
  11.その他未知のリスク可能性
   (人類を不妊にする超汚染物質の開発、人工ブラックホール、
    超人類生物の出現、・・・)、
  12.政治の失敗

があげられており、10 に “AI” が指摘されています。
 制御の効かなくなった AI 独裁者や膨大なロボットの出現がリスクとされているのです。

(***) 3月21-23日にかけて開催されたワールド碁チャンピオン・シップ(主催:日本棋院。特別協力:日本経済新聞社)(*4) では囲碁に詳しい専門家による事前予測がなされていましたが、”見事” に外れました。
 深層学習法を手に入れた AI の進歩は、専門家でさえ予測出来ない程に "異常に迅速" な様です。
   (*4) 拙ブログ:"2070404:AI ⑨強い囲碁 AI"



共通テーマ:日記・雑感