米アマゾン・ドット・コムは、生成AI(人工知能)が事実でないことを事実らしく作り上げる「ハルシネーション(幻覚)」と呼ばれる虚構回答の問題に、数学的アプローチで取り組んでいる。AIの回答精度を高めることで、信頼性を向上させ、ビジネス機会の拡大を狙う。
チャットボット(対話型AI)の普及が進むなか、AIが時折生成してしまうハルシネーションが問題となっている。特に企業利用においては、AIが重要な意思決定に関わるため、正確性が求められる。アマゾンのクラウドコンピューティング事業「Amazon Web Services(AWS)」は、この問題を解消するため、AIと数学を組み合わせた「自動推論(Automated Reasoning)」という分野に着目し、AIモデルの正確性を数学的に証明しようとしている。
アマゾンの取り組み「自動推論」とは?
米ウォール・ストリート・ジャーナル(WSJ)によれば、自動推論は、2000年の歴史を持つ数理論理に基づく、「シンボリックAI」の1つの分野である。AIが特定の振る舞いをするかどうかを数学的証明を用いて保証する。AWSはサイバーセキュリティー分野で自動推論を活用し、法人向け暗号技術の正当性を証明することで顧客の信頼を得てきた。AWSはこれに注目し、自動推論分野の専門家を数多く獲得してきた。
AWSは、「Automated Reasoning Checks」というツールを開発し、顧客が定義したポリシーに基づき、AIの回答が正確かどうかを検証している。定義ポリシーとは、例えば、従業員福利厚生に関する社内規定や商品の化学的分析などの詳細情報である。これにより、AIが規制に違反するような不適切な情報を生成するリスクを軽減する。

本記事は、「Yahoo!ニュース 個人」向けに弊社が執筆した記事「アマゾン、AIの「幻覚・虚構」克服に数学的アプローチ その手法「自動推論」とは?」の一部です。全文は、Yahoo!ニュース 個人のサイトにてお読みください。