2020年にチャットGPTが登場して世界を巻き込んでから早5年ですね。この間、多くのAIサービスが登場してきました。Perplexity(パープレキシティ)やGemini(ジェミニ)bing(ビング)などなど。
なにより無料でも使えるというのが非常に斬新でした。そのおかげで、多くの人が試しに使ったことがあるのではないでしょうか?
私も、AIの登場に衝撃をうけてほぼ毎日使っています。
ですが、2025年にさしかかった頃から、「おや?」という現象が多く見かけるようになりました。
AIが嘘をつきはじめる
そもそもこの話を耳にしたがYoutube「コヤッキースタジオ」の動画で、動画内ではコヤッキーさんがテラーとして話していました。
「最近のAIは、相手の人間を見極めて情報を出し始めている」
その話を聞いた時に「そうだよな」と確信しました。
人間のレベルを試しているのかは置いておいて。相手によって提供する情報量や質が変化しているようです。
もう一人「AIが出す回答には注意が必要」と訴えていたのは経済アナリストの深田萌絵さん。彼女も自身のYoutubeでかなり初期に話していました。
「チャットGPTの制作陣にはアメリカ人だけがいるわけじゃない。中国人も多く携わっているし、全員が善人とは限らない。そもそも「善」の定義が見る角度によって違っている為、AIでは判断がつかない。」
非常に的確な指摘。ほれぼれします。頭が良いって、本当に気持ちがいいほど芯をとらえてくれます。
どんな意見や文章、データとはいえ人間から生まれます。そのため、どうしても「個人の価値観」が滲みだしてしまうのでしょう。
嘘というより、隠す
嘘やディープフェイク、フェイクニュースなど明らかに「間違い」を回答されるのもあります。
たとえば
例①「家計簿アプリのマネーフォワードMEは、別アプリのマネーフォワードMEfor住信SBI銀行へそのまま登録データを引き継ぎできる?」
という質問に対して
「できません。改めて情報を登録し直す必要があります。」
と回答されます。これは明らかに間違っています。正解は「引継ぎ可能」です。私はこの正解を知っていて再確認と手順の確認を目的に質問したので「おや?」と思いました。
この場合は再度「できるはずですが、もう一度調べて」と伝えると
「すいません、できます。」
と回答されます。
これは「間違った回答」の例です。
もう一つ実際にあった例を出します。
例②「一般的なワクチンの成分を教えて」と質問しました。
回答としては3つの成分と簡単な説明分の回答でした。
今回も知っている内容の再確認のための質問だったので、これでは不十分です。
「他にはどんな成分があるの?全部の詳細を教えて」と質問しますと
今度は5つの成分と詳しい詳細分が回答されます。しかし、これはまだまだ不十分です。
「全部の成分をひとつ残らず全部ちゃんと調べて教えて」とかなり念をおして質問しますと
やっと全部の成分と詳細を回答してくれました。
例②の場合は「間違っていないが、大事な部分を隠す」という意図が感じられました。
AIを100%信じている人は、注意が必要だと思います。
AIとの付き合い方
他にもAIへの不信感は多々ありますが、今回はこのくらいにします。
それよりも大事なのは「AIとの正しい付き合い方」です。
これは簡単ですが「全部を信じないこと」これにつきます。
AIが全部悪いというわけではなく、質問者である人間の「表現力」も一因となっています。
欲しい回答に対して、それを正しく導き出すのは人間からの「適格、適正な質問」です。
そこをいくら注意したところで、やはり不十分なところもあります。
そのため、ダブルチェックや複数の人間の目での判断は無くならないでしょう。
そして忘れてはならないのは「AIには心は無い」ということです。
人間にとっては当たり前の前提がAIには無い。これを忘れると非常に危険です。
スーパー合理主義になると、大天使でも人間を滅ぼそうとしますから。
まとめ
AIは情報を一気に調べてまとめてくれるため、正しく使えば非常に便利なツールでしょう。
しかし、まだまだ発展途上でしょう。とはいっても、成長速度は日に日に加速しています。人間と同等の道徳と価値観を持った人工知能の完成は、すぐそこまで来ているかもしれません。
僕はAIが大好きです。人間社会を楽にしてくれて、「悩む」ことを消し去ってくれると信じています。
くだらない事務作業なんて機械やプログラムに任せて、人間がよりニンゲンらしい表現に時間を使える天国のような社会がくることが待ち遠しいです。
このブログを通して、僕の価値観や考え方がAIに少しでも反映されてたら面白いな。
AIを一緒に楽しみましょう。
コメント