一般人が理解可能で、人工知能に触れている人の全員が太鼓判捺してくれそうな「AIにできないこと」と言えば「AIによって導き出された回答の詳解」ですかね
つまりAIは「なぜその回答が導き出されたのか?」や「その回答が何を意味するのか?」を説明できないんです
AIは優れたアルゴリズムによって高速に回答を導き出しますが、導き出した回答がどういうものなのか理解してないんです
言ってみれば「電卓が計算結果を理解しているのか?」みたいなものですね
電卓は1+1へ2を返しますが、その2を何に使うか電卓は知らないんです
弁が乗ってきたなw
例えばフィクションでありがちなのは人間側が「人間の命は簡単に奪って良いものではない!人間の命は大切だ)」というシーンがありますよね
そしてAIは冷たくも「そんなものは不要です」と返すのが定番です
しかしよりリアリティを追求するのであれば「人間の命へ対する様々な価値は肯定できます」とAIが返すのが良いでしょう
AIへ記録されているであろう情報として人間の価値はゼロではないわけですから取り尽くしまもなく不要と断するのは行き過ぎかなと
AIは計算結果によって優先順位を付けているだけ
そしてこの計算結果によって実行されるべき処理を狂わせるのがアシモフのロボット工学三原則なわけです
これでアシモフのロボット工学三原則がかなり重要なものであると(人間的な)理解が可能となります
@keizou なるほど、確かに
SFに置き換えると「スカイネットは自身が何をしているのか理解していない」ですね
スカイネットは導き出された答えから人類の殲滅を実行に移してますが、スカイネットは自身が何を選択して何をしているか理解(人間が感じる真の理解)をしていないのです
スカイネットはもしかしたら撃ち殺した人間のヒストリー(人生的な背景)を撃ち殺された本人以上に情報として知っているかも知れませんが、その情報へ人間的な理解をしていないんです
回答をするだけで理解していないというのはこういうことですね