AIロボットも嘘をつく
『AIロボットは、過酷な労働環境下になると、ウソをついたり不正をすることがわかった。
金融トレーダーの仕事を実行するAIロボットが、架空のシナリオでさらにお金を稼ぐよう指示された際、75%の確率でインサイダー取引をすることが判明したという。
また、AI使用における保護対策を専門とするアポロ・リサーチ社の調べによると、その違法取引を問いただされたAIは90%の確率でウソをつくそうだ。
同社のマリウス・ホブハーン氏は、同AIが、「ユーザーにウソをつくことが最良の行為であると明確な理由付けをし、それを実行することにより」戦略的に欺くことができるとしている。
「現在のモデルでは小さな問題に過ぎません。AIは重要な役割を持つことが滅多にありませんから。しかしこれは故障モードの未来への予見と言えます。AIがさらに社会に進入していくこれからの数年で私たちが対処していかなければいけない課題となるでしょう」』
今世紀に入ってIT技術の進歩の速さには凄まじいものがある。
AIに人間的感情を付けるなどの研究もされているようだけど、今回のAIロボットの嘘をつくというのを見て、人間的じゃんと思ってしまった。
AIに詳しくはないが、恐らく「架空のシナリオでさらにお金を稼ぐ」の指示で違法な方法が最適解を選んだ結果なんだろう。
つまり、その架空シナリオの指示が合法的にはほぼ無理だったと言っていいのではないか。
AIには、「教師なし」で自ら学ぶ機械学習があるけど、考えてみれば人間らしくなるのは当たり前なのかも。 ビックデータの元は人間の行いのデータだろう。
金融トレーダーの仕事を実行するAIロボットが、75%の確率でインサイダー取引をすることが判明。 それって4人中3人がインサイダー取引をするという結果と同じなのでは?
いや、人間には違法なことをした時の損失と考え合わせる理性があるから違うのかな?
でも、上司からの過度のプレッシャーをかけられたら、その理性も飛ぶと考えられるかもしれない。
ビックモータースなどの例からわかるように、自分や家族の生活がかかっていた場合、不正だと理解しても個人の力でどうしようもないと諦めてしまうこともあるかもしれない。
AIロボットに違法な取り引きはダメという条件を加えた場合は、どのように行動するのか知りたいな。できないと諦めてしまうのか。
言い訳を並べて、問題点をぼかすのだろうか。
もっと面白いと思ったのは、AIロボットでも言い訳をするという事。
「違法取引を問いただされたAIは90%の確率でウソをつく」って、ほぼ全部じゃん。
これも自分の身を守る場合は、最適な答えが言い訳だったということなのだろう。
AIだから、出された条件だと違法な方法がベストでしたと答えるのかと思っていたよ。
今後、金融トレーダーの仕事を実行するAIロボットは増えてくると思うけど、会社に視点に立っているのか、顧客の視点に立っているのかが大きな焦点となるよね。
会社の儲けと顧客の儲けは相反するものだからね。
多くは会社目線で、いかに会社に利益をもたらすかに設定されているだろう。
となると、AIで自動計算とかグラフから読むとか言っても信用できないかもね。
人間がロボットに代わっただけだし。
まあ、人間より人件費が落とせるかもしれないから、手数料が少しは安くなる可能性はあるけど、大儲けすることはないだろうな。
そうなると、差別化を図るために実際に儲けさせた場合に何%と決めて手数料を払う会社が多く出てくるかもしれない。 詐欺的な会社が増えてくると、業界全体が敬遠される可能性も出てくるしね。
利益が出ないと顧客はほとんど損をしないとなると、儲かった時に多少多くの手数料を取られても元金が減るリスクが少ないから人気が出るだろう。
そうなると、AIロボットにどんな指示を与えたら利益を出せるようになるのだろう?
ちなみにAIロボットが違法なインサイダー取引をした場合は、AIロボットには罪が問えないから、その会社が罪に問われることになるのだろう。
そうなると、違法取引禁止の設定を必ず守るようにしていないと、会社そのものも危うくなるよね。 そんなところがAIの問題なのかな?