ニューズレター

AIは単なるプログラム

Posted by local knowledge on September 16th, 2022

新聞やテレビでの報道で「AIを活用して」というフレーズが激増している、と感じている方は多いはず。半ば辟易しながらこれらのニュースを見聞きしていたわけですが、このフレーズの多用は極めて危険であることを簡単に記しておくことにします。

メディアはAI (artificial intelligence)を「人工的な優れた知性」という意味で使うことで、1)根拠のない万能感の演出、2)リスク回避、という2つの意味を込めているように感じます。1)について言えば、AIの実態は“複雑なアルゴリズムであることは確かだけど単なるプログラム”に過ぎません。ヒトが作ったソフトウエアですからヒトの知性(知性という言葉の厳密な定義は今回は脇に置いておくことにします)を超えるはずがありません。そして2)は「あれはAIがやったこと。問題が発生しても俺に責任はない」という形で、うまく動かない時、問題が発生した時の責任を回避しようとしてるのではないかと危惧します。

責任回避、という意味では政治(行政)が「AI、DX、Web3.0」を連呼するのが同じ理由であることはみなさんお察しの通りです。「それが本当に日本を変える」のかどうかはさっぱりわからないし、そもそもその言葉の意味もよくわかってないけれど、欧米やメディアが「そっちだ」と騒ぐので、仮に失敗してもそれは俺の責任ではない、と言い切れるわけです(これが「誰も聞いたことのない独自の戦略・戦術」を打ち出してかつ失敗した時には間違いなく人事異動でしょうからね)。さらに不幸なのは時の総理が「新しい資本主義」などと打ち出しても、それが何らかの彼の強い意思や思想に基づいたものでないことが最初から(国民に)バレていることに対して本人が無頓着なことです。メディアと政治が結託して演出している茶番を国民が冷ややかに眺めている、という様子が浮かびます。ヒトは「主義(ism)」の奴隷になりたがっている生き物だ、ということだけ押さえておけば十分でしょう。

それから「AIに倫理はあるか」を真面目に議論している学者さんがいらっしゃるようですが、そんなもんあるわけがありません。何しろ相手は単なるプログラムですからね。現実にはソフトウエアはコンピュータなどの「箱」に収まることになるので、製造物責任(PL)法が対応することになるでしょう。ですから、例えばAIを実装した自動運転車が事故を起こした場合は、制御系ソフトウエアの不具合とドライバーの制御力の不足のいずれかもしくはミックスしたものになるはずで、こういう場面でトロッコ問題(trolley problem)を持ち出して、課題を妙に神秘的でパラドキシカルなものに見せるのはやめましょう。

ついでにいえば「企業倫理」という言葉も責任の所在を曖昧にしていると思います。そもそも倫理は「個々の個人が持つ道徳心」だと(私は)考えているので、法人・機関・団体としての倫理なるものはありません。あるのはその機関などに所属する個人の倫理の総和だけです。個人が所有する倫理の総和がそのまま社会的道徳とイコールになればベストですが、残念ながらそうはならない。そこを補うために法律が存在していると考えれば、個人倫理の総量+法律=(社会的)道徳という形で比較的簡単に表現できます。そしてその道徳の“品質”を規定しているのが憲法(=政府に対する国民からの命令)である、と考えておけば、世の中の倫理にまつわる面倒な議論が割とシンプルにご理解いただけるかと思います。

最後に「ビッグデータをAIで解析しても将来のことは何もわからない」ことを説明している講演(The human insights missing from big data)を見つけたので共有したいと思います。彼女(Tricia Wang)がエスノグラフィー(ethnography:行動観察調査)の専門家であることを差し引いたとしても説得力のあるプレゼンテーションです。個人的な体験としても妙なビジネス誌よりは小説などの作家が見通している将来のほうが遥かに説得力があるなあ、と思うことが多く、ビジネス書より小説のほうがよほどビジネスの未来がわかる気がします。作家は優れたエスノグラファーなのです。彼らの“知性”をどう活用させていただくかが日本らしい戦略・戦術の立案に資するはず、と思います。

ローカルナレッジ 発行人:竹田茂

最新コラムはニュースレターでお送りしています。お申し込みは下記から

ニューズレター登録はこちら