イベント / EVENT

2024年度 第4回 リポート

イベント リポート:「信頼ベースで人がAIを最大限に使いこなす方法とは
―このChatGPT、信頼できるの?」

 2025年2月7日、国立情報学研究所(NII)は市民講座「情報学最前線」の第4回として、「信頼ベースで人がAIを最大限に使いこなす方法とは―このChatGPT、信頼できるの?」を開催しました。本講演では、コンテンツ科学研究系の山田誠二教授が、AIに対する信頼の概念や、人間とAIの協調関係について解説しました。会場とYouTube Liveのハイブリッド形式で行われ、会場には43名、オンラインでは約155名が参加しました。

shimin2024_re-07.jpg

AIを信頼するとはどういうことか?

 現在、ChatGPTをはじめとする生成AIは急速に普及し、私たちの日常生活や仕事に深く関わるようになっています。自然言語で日常的に使えるレベルにはなっているものの、AIの欠点の一つに常識がないということが挙げられます。これらのAIは本当に信頼できるのでしょうか?

 山田教授は、人間とAIが一緒に協調して意思決定をする際、過大評価(過信)と過小評価(不信)をしてしまうことが問題であり、信頼が適切に調整されること(信頼較正)が、AIを最大限に活用するための鍵となると説明しました。

 例えば、AIの画像認識技術は照明の条件によって精度が大きく変わることがあります。AIの性能が低下しているときに、それを正しく認識し適切に判断することが重要です。山田教授は、信頼較正の考え方を取り入れ、ユーザーが過信せず適切にAIを利用できることが求められていると述べました。

ChatGPTの信頼性と限界

 本講演では、ChatGPTの得意分野と苦手分野についても触れられました。例えば、ChatGPTはプログラミングのコード作成や文章の要約といった定型作業に強い一方で、判断が求められるタスクでは不確実な回答をすることがあります。このような特性を理解し、適切な場面で活用することが重要です。

 また、AIのハルシネーション(虚偽の情報を生成する現象)についても言及されました。ChatGPTは、事実に基づいて回答するよう設計されていますが、時には誤った情報を含むことがあります。AIの出力を検証し、適正に評価すること、人間がAIを使いこなすための判断が正しくできることが大切であると話しました。

人間とAIの協調の未来

 山田教授は、「人間はAIを適応的に使う能力が高い」と説明し、刻々と変化するダイナミックなAIの性能を完全に信用するのではなく、こうした性能を踏まえつつ適切な役割分担を意識することが重要だと述べました。

 また、AIから人間への適応である「アダプティブ(ユーザ適応)」と、人間からAIへの適応である「アダプタブル(システム適応)」という二つの概念も紹介されました。AIがユーザーの習慣やニーズを学習する一方で、人間もAIの特性を理解しながら適切に活用していく必要があります。この相互適応をうまく進めることで、より効果的なAI活用が可能になると述べました。

参加者の声

 本講演には一般の方のほか企業の方の参加もあり、活発な質疑応答が行われました。参加者からは「感情や常識を持つAI技術の可能性」や「今後の発達の中でAIが高い推測能力を持つ可能性」などはあるのかといった質問が寄せられました。

shimin2024_re-08.jpg

講演映像のアーカイブはウェブサイトにて公開予定です。

https://www.nii.ac.jp/event/shimin/

関連リンク

マインドインタラクション―AI学者が考える≪ココロ≫のエージェント―
山田 誠二、小野 哲雄・著

shimin 2024-report_4 page6790

注目コンテンツ / SPECIAL