概要
このたび、QueryLift株式会社のメンバーによる論文「Exposing Citation Vulnerabilities in Generative Engines」が、言語処理学会第32回年次大会にて発表されます。
言語処理学会第32回年次大会は、2026年3月9日(月)〜13日(金)に栃木県宇都宮市のライトキューブ宇都宮会場およびオンラインで開催された、国内最大級の自然言語処理分野の研究成果発表の場です。
本研究は、生成AIが出力する応答に含まれる引用情報の脆弱性を明らかにし、生成AIの信頼性・品質向上に向けた分析と示唆を提供するものです。
発表情報
- 会議:言語処理学会第32回年次大会
- 論文タイトル:生成エンジンにおける引用脆弱性の解明
- 著者:
- 望月 理来(QueryLift / 慶應義塾大学)
- 小松 秀輔(QueryLift / NAIST)
- 野口 蒼大(QueryLift)
- 安宅 和人(慶應義塾大学)
- 論文リンク:
- 「生成エンジンにおける引用脆弱性の解明」(言語処理学会第32回年次大会 論文集)
- 「Exposing Citation Vulnerabilities in Generative Engines」 (arXiv)
研究の背景
生成AIは、大規模言語モデル(LLM)を用いて自然言語での応答や要約を生成する能力により、カスタマーサポートや自動要約、検索体験の強化など幅広い場面で実用化が進んでいます。一方で、生成された応答に含まれる参照情報や引用の正確性・信頼性は、ユーザーの判断や企業の意思決定に重大な影響を及ぼします。
特に、AI出力が外部情報を参照する際の根拠の曖昧さや誤情報の混入は、誤解やブランドリスクにつながる可能性があります。こうした課題に対して、本研究では以下のように取り組みました:
- 生成エンジンが出力する引用情報の挙動・脆弱性を定量的に分析
- 特定のパターンにおける誤引用や誤参照の発生要因を特定
- 脆弱性を明らかにした上で、AI出力の信頼性改善の方向性を提示
このアプローチにより、AI応答内で提示される情報の質と信頼性を高めるための基盤技術と指針が得られています。
今後の展開
本研究成果は、QueryLiftの解析アルゴリズムや品質評価モデルの高度化に活用していく予定です。生成AIが示す引用情報の信頼性を可視化・評価する機能強化を進めることで、企業がAI出力を安心して活用できる環境の実現を目指します。
今後も、生成AIの出力品質と信頼性に関わる根本的な課題の解明と、実プロダクトへの応用研究を推進してまいります。
※本リリースに記載された内容は公開日時点の情報です。