AIの信頼性【前編】

信頼という字は『人の言うことに頼る』と書きます。

文字通りに捉えると、信頼とは不確実性が高い事象について、人間性や過去の経験等、因果関係にない事を根拠に、結果を他人に委ねる行為です。このような捉え方においては、信頼の同義語は他力本願、対義語はファクトベースです。

私は、信頼は主体の認識能力の限界を補う為、もしくは認識を得る為の行動と時間を要しない効率化の為の手段であると考えます。例えば、私が天気予報を見るのは、明日の天気が私自身の認識能力の限界を超えた事象であり、かつ私自身が天気予報士の専門知識と最新技術により収集される情報を得る行動と時間をかけない為です。

以下、『AIは信頼の客体になり得るか』について議論します。その前提として、AI(Artificial Intelligence)とはインプットとアウトプットの間に存在する工学的なプロセスと定義し、機械学習はそのプロセスを強化することを目的に自ら学習する機能と定義し、付加価値と位置付けます。

—–

人間が、アルゴリズムよりも人間(自身か他者かを問わず)の判断を好む現象を『アルゴリズム回避』と言い、多くの実験で実証されています。例えば、ペンシルバニア大学は、被験者にビジネススクールの学生たちの入学試験結果のデータを渡し、各々の学生がその後の過程でどのような成績を収めたのかを予測する実験を行いました。その際、被験者にはアルゴリズムによる予測が提示され、アルゴリズムの予測を選択することも、自身の考えで予測をすることもできました。その結果、ほとんどの被験者はアルゴリズムによる予測より、自身の予測を選択し、そして多くの者が間違えました。また、実験後にアルゴリズムの予測と正解を見せたところ、通常はアルゴリズムの予測が優れていることを認識しましたが、同時にアルゴリズムが間違いをすることを認識し、間違えることを強く問題視しました。

他方において、ノースウェスタン大学、コネチカット大学、シカゴ大学は、自分で運転するか自動運転機能かを選択できる運転シミュレーターにて、被験者はどちらを選択するかという実験を行いました。実験では、単にステアリングとスピードを制御する自動運転機能を搭載したシミュレーターに乗る被験者と、その機能に加え運転中に女性の声で被験者に話しかける『アイリス』と名付けられた自動運転機能を搭載したシミュレーターに乗る被験者に分けられ、アイリスを選択できる被験者は自動運転機能に任せる確率が高いという結論に至りました。また、実験では別の自動車の責任のように見える事故をプログラミングしていましたが、名前がないシミュレーターを選択した被験者はアイリスを選択した被験者より、事故が起きたのは自動運転の責任だと非難する確率が高い傾向にありました。

近年、ビジネスにおいても、AIのユーザーインターフェースの擬人化が進んでいます。それは、ユーザーがAIを信頼すること、信頼を通じてユーザーの効率化に繋がることを期待してのことと思います。

—–

私の実家では飼い猫に人のような名前を付けることが禁止されていました。母曰く、『猫と人は別の生き物だから、混同するような名前を付けてはならない』ことが理由だそうです。その結果、飼い猫の名前はクロ、シマ、チビ、チビシマ、クロシマ、等でした。名は体を表します。
(次回に続きます)

(文責:松室 伊織)

ロジ・ソリューションでは、物流に関するいろいろなご支援をさせていただいております。何かお困りのことがありましたらぜひお声掛けください。(お問い合せはこちら

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

★掲載された記事の内容を許可なく転載することはご遠慮ください。

(ロジ・ソリューション(株) メールマガジン/ばんばん通信第376号 2018年2月7日)

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です