2025年10月9日、経済産業省とNEDOは「GENIAC-PRIZE」生成AIの安全性確保領域におけるトライアル審査の受賞者8件を発表した。応募総数は67件で、受賞者はAquaAge株式会社、IPconnect株式会社、NTTドコモビジネス株式会社、NTT西日本株式会社、学校法人帝京大学、株式会社ChillStack、株式会社RAYVEN、国立大学法人筑波大学である。AquaAge株式会社はハニーポット型防御LLMを、IPconnectは著作権リスク評価システムを、NTTドコモビジネスは「chakoshi」を、NTT西日本はデータ保護基盤を、帝京大学は対話AIによる思考促進支援を、ChillStackはRCEリスク検知基盤を、RAYVENはMCPサーバー安全性強化を、筑波大学は医療レポートにおけるハルシネーション防止技術をそれぞれ開発した。各受賞者へ500万円が授与される。本審査は2026年3月に予定されている。
From:
「GENIAC-PRIZE」生成AIの安全性に関わるトライアル審査の受賞者が決定しました
【編集部解説】
生成AIをめぐる安全性確保の取り組みは、国際的な規制や社会的受容の動向とも深く関わっています。GENIAC-PRIZEは、日本が世界標準のAIセーフティ技術をリードすること、そしてリスク発見とリスク低減策を社会実装に直結させることを目的とした実践的なプロジェクトです。
NEDOと経産省が主催する同賞では、専門家ではなく幅広い実務者や企業が参加する点も特徴です。AIの社会実装が急ピッチで進むなか、セキュリティや著作権、データの真正性、依存リスク、医療現場での誤情報防止など、多様な観点からの具体的な課題に対し、プロトタイプ開発の段階から現実的な解決策を競い合います。
実際、今回受賞した技術の多くは、AI生成物の”ハルシネーション”やリモートコード実行リスクといった、ごく新しいタイプの課題に対応するものです。これらは従来のITセキュリティ対策とは異なり、AI固有の性質を踏まえた評価とガードレール設計が求められます。
今回のGENIAC-PRIZEは、懸賞金型というオープンイノベーション手法の活用でも注目されています。高額の報奨金は、既存の大企業だけでなくスタートアップや研究機関の参入を促し、多様なアプローチを生み出しています。
長期的には、このような技術開発の実践知が、AIガバナンスや国際的な安全基準作りに影響を与えていく可能性も高いです。一方で、安全性だけを優先することでイノベーションが阻害されるリスクにも配慮が必要です。社会全体でどうバランスを取るか、今後も注視していきたいテーマです。
【用語解説】
生成AI
高度な機械学習技術により文章や画像などを自動生成する人工知能技術の総称。ChatGPTなどが代表的だ。
リスク探索・リスク低減
新しい技術やシステムがもたらす潜在的な問題点(セキュリティ、誤情報、責任の所在など)を見つけ、被害や悪影響を未然に防ぐための取り組みだ。
ジェイルブレイク
AI・LLMの制約や規範を意図的に回避し、禁止事項や意図しない挙動を引き出すテクニックや攻撃手法のことを指す。
ハニーポット型
攻撃者を検知・誘導するために”おとり”となるシステムを設置し、不正利用のリスクを観察・排除するセキュリティ手法だ。
ハルシネーション
AIが実際には存在しない事実や誤った情報を生成する現象。生成物の信頼性を損なうAI固有の課題だ。
RCE(リモートコード実行)
遠隔から悪意のあるコードを実行される脆弱性のこと。AIエージェント経由でもこのようなリスクが指摘されている。
公共性
技術やサービスが社会全体に与える好影響や、公益目的にどれだけ資するかを示す評価だ。
【参考リンク】
GENIAC-PRIZE公式サイト(外部)
NEDO主催の生成AI安全性関連トライアル・本審査、応募要項や詳細情報を掲載した公式ページ
NEDO(国立研究開発法人新エネルギー・産業技術総合開発機構)(外部)
新エネルギーやAI、安全技術開発などを推進する日本の国立研究機関の公式サイト
IPConnect株式会社(外部)
技術系データソリューションやセキュリティ評価システムを展開する企業サイト
株式会社ChillStack(外部)
AIセキュリティ基盤、動的検知技術の研究開発などを行う企業サイト
NTT西日本(外部)
日本の大手通信事業者。データ保護基盤やAIガバナンス事業も強み
学校法人帝京大学(外部)
多分野の研究・教育機関。AIコミュニケーション技術の応用実績がある
国立大学法人筑波大学(外部)
医療インシデント防止技術など、学際的先端研究を行う大学
NTTドコモビジネス株式会社(外部)
AIガードレール「chakoshi」を含む業務DXソリューションの提供企業
【参考記事】
Japan’s Agile AI Governance in Action: Fostering a Global Nexus through Pluralistic Engagement(外部)
AIガバナンスや安全規範制定を日本が世界と連携して進める流れを解説している記事
経済産業省がGENIAC-PRIZE開始、AIエージェント開発など4テーマで募集(外部)
GENIAC-PRIZEのスタートや主催意図、募集内容を分かりやすく説明する国内ニュース
生成AIの社会実装に向けたプロジェクト「GENIAC-PRIZE」を始動(外部)
トライアル審査や応募システム、懸賞金型イノベーションと社会実装の意義について記載
AI White Paper 2024 Toward the world’s most AI-friendly country(外部)
日本のAI政策、技術開発・安全性管理・市場構造の現状を国際的視点からまとめている
Rakuten Announces Winners of Rakuten Technology Award 2025(外部)
国内外の技術開発やスタートアップの動向、AI関連の受賞事例などの参考情報として活用できる
Final Presentation Session Held for GENIAC Cycle 1 Developers!(外部)
GENIACプロジェクトの英語公式発表。日本の技術評価・政策展開の国際的な反響を記載
【編集部後記】
AIが手の届く存在になってきた今、みなさんは自分が使うAIがどんなリスクや安全性の仕組みを持っているか意識したことはありますか。AIは便利な反面、データの漏洩や不正利用、誤情報の拡散など様々な課題も抱えています。
今回のGENIAC-PRIZEで受賞した技術は、そうした現場のリアルなリスクに立ち向かうものでした。日々変化するAIの姿をどのように捉え、私たちはどんな基準や視点で”安全なAI”を選ぶべきか――ぜひ皆さんの意見や体験も聞いてみたいです。
「便利」と「安全」のバランスについて、あなたならどう考えますか?

