AIセーフティ・インスティテュート(AISI、所長:村上明子)は、内閣府 科学技術・イノベーション推進事務局 人工知能政策推進室と合同で、下記の通り、「Hiroshima Global Forum for
Trustworthy
AI」を開催いたしました。本フォーラムは、AIの安全性、セキュリティ、信頼性等の向上に向けた国内外の最新動向や、各国のAI安全性/セキュリティ担当機関による取り組みについて議論する場として企画いたしました。
Japan AISI, together with the Cabinet Office, hosted the Hiroshima Global Forum for Trustworthy AI.This
forum provided a platform for discussing the latest developments in AI safety, security, and
trustworthiness, both in Japan and abroad, as well as initiatives led by AI safety and security agencies
around the world.
「Hiroshima Global Forum for Trustworthy AI」を開催しました。
【開催概要】
[目的]
Trustworthy AIの実現に向けて、国内外のAI安全性/セキュリティ関係者と国内外ビッグテックやベンチャー企業とで意見交換を行い、今後のAI安全性/セキュリティの道筋を探る。
[日付]
2026年1月15日(木)〜16日(金)
※1月16日は関係者会議
[会場]
グランドプリンスホテル広島(広島県広島市南区元宇品町23-1)
【講演プログラム概要】
[講演1 「日本のAI政策/基本計画」]
本セッションでは、日本政府のAI政策の経緯と今後の方針が報告されました。2025年にAI推進法・基本計画による枠組みが整備された旨が説明され、ソフトローでTrustworthy AIを目指し、利活用加速等4本柱で施策を展開する方針が示されました。事業者の自助対応には限界があるとの課題認識が述べられ、Japan AISIを機能強化して技術基盤の充実と国際連携を推進する旨が発信されました。
[講演2 「日本のAI戦略」]
本セッションでは「日本のAI戦略」を題材に、AIの進化、研究の将来方向性、国際協力の3点が報告されました。AIの歴史と技術進歩が整理され、ビジネス・政府での導入拡大の中で、価値最大化には業界固有の課題に対する最適化が鍵と述べられました。今後の推進力として、仮説生成・検証を自動化し科学的発見を加速する「科学のためのAI」と、単一タスクから汎用システムへ進化する自律型ロボットの「フィジカルAI」が挙げられました。
日本では、生成AI対応や国際的ガバナンス議論を経て2025年にAI法やAI基本計画が定まり、世界で最もAIを開発・活用しやすい国を目指す方針が示されました。最後に、安全・信頼性の確保とイノベーションの加速を両立するため、各国の強みを活かした国際協力の深化が不可欠と強調されました。
[パネルディスカッション「広島AIプロセス」]
本パネルでは、国境を越えて展開するAIには各国規制だけでは不十分で、政策立案者や企業が参照できる世界共通の標準が国際的調和をもたらす旨がパネラーから述べられました。報告枠組みは単なる文書ではなくグッドプラクティスの集積として機能している一方、用語定義の統一が課題と示されました。また、独自のAI開発力を持たない国々にとっても安全な導入指針となり、ルール断片化やデジタル格差を防ぐ信頼構築の基盤として重要と指摘されました。これらを踏まえ、広島AIプロセスはG7に閉じず、多様なステークホルダーが情報共有し、透明性と相互運用性を高めるオープンで自発的なエコシステムであると整理されました。
今後は、企業が回答しやすい定義の明確化と市民への価値訴求、米中対立等を見据えた中規模国連携とAISI等ネットワークによる実務協力、公共調達への組込み等による参加の経済合理性向上と技術機関と連携した信頼性担保が提起されました。最後に、学び合うオープンなコミュニティとして拡大し、グローバルな共通基盤へ育てる決意が示されました。
[講演4 「Japan AISIの取り組みとWGについて」]
本セッションでは、Japan AISIからAIの安全性を支援し社会実装を後押しする観点から、各種ガイドラインを公表していることを紹介。また、多様なステークホルダーが参画する事業実証ワーキンググループを通じて、具体的なAI安全性検証を進めている旨を説明しました。
・BusinessDemonstrationWG_20260115_HiroshimaGF
ヘルスケアSWGからは、医療文書作成の自動化により医療従事者の事務負担を減らすユースケースを対象に、想定リスクと評価指標を整理していることが報告されました。併せて、AIセーフティガイドおよび評価チェックリストを作成中である旨が述べられました。
・HealthcareSWG_20260115_HiroshimaGF
ロボティクスSWGからは、サービスロボットへのAI実装を想定し、潜在リスクの特定と、リスクの許容範囲に関する論点整理を進めていることが紹介されました。さらに、AIロボットの実用的な評価環境を開発中であることが示されました。
・RoboticsSWG_20260115_HiroshimaGF
データ品質SWGからは、AIの安全性確保におけるデータ品質の重要性が強調されました。その上で、セーフティ対策を支援するデータ品質管理ガイドブックを公開し、関連資料を整備している状況が報告されました。
・DataQualitySWG_20260115_HiroshimaGF
適合性評価SWGからは、システム思考とデザイン思考を併用する包括的アプローチが論点として提示され、AI適合性評価でも両観点が重要であると指摘されました。現在は人間と機械システムの相互作用(HMT)を主題に評価の在り方を検討しており、検討結果を整理してガイドライン作成につなげる方針が述べられました。
・ConformityAssessmentSWG_20260115_HiroshimaGF
[講演5 「企業のAI安全性/セキュリティの取り組み」]
本セッションでは、Microsoft、Preferred Networks、NTT、NEC、富士通、OpenAI、Anthropic、Cisco(発表順)の計8社が登壇し、AIの安全性とガバナンスに関する最新の取り組みが共有されました。最先端のAIモデルの開発や提供を行う立場から、「抽象的な原則」からいかに「運用可能な実装」に落とし込むかの知見が共有されました。更に、生成AIから自律的に行動する「エージェンティックAI(Agentic AI)」への進化を踏まえた考え・取り組みが示されました。
[講演6 「各国AISIの取り組み紹介」]
本セッションでは、EU・フランス・韓国・シンガポールの代表者がAISI機関の最新動向と戦略を報告しました。共通して、規制はイノベーション阻害ではなく競争力の源泉であり、国境を越えた国際連携が不可欠である旨が発信されました。
EU:安全性とイノベーションはゼロサムではなく、信頼環境が開発を加速させるとの見解が述べられました。EU AI Actの施行に加え、レギュラトリー・サンドボックスや計算資源を提供するAIファクトリーで企業の実験・開発を支援する方針が説明されました。
フランス:国家安全保障と経済繁栄の観点から、基礎理論からインフラまでAIバリューチェーン全体で主導権確保を目指す旨が示されました。サイバー攻撃や情報操作等のシステム的リスクを見据え、行政機関が部門別にハイリスクAIを評価する分散型モデルを採用していると述べられました。
韓国:2026年1月施行予定のAI基本法を踏まえ、Korea AISIが中心となりディープフェイク対策やリスク評価を主導する新体制が紹介されました。市民保護・企業支援・国家安全能力の3本柱で、規制を最小限にしつつ活用を優先するエコシステム形成を進める方針が示されました。
シンガポール:理念に加え、企業が直ちに利用できる実装的ツール提供を重視する旨が述べられました。オープンソースのAI Verifyや評価ツールProject Moonshotを整備し、ASEANの議論主導やJapan AISIとの共同テスト等を通じて相互運用性確保に注力している旨が説明されました。
[講演7 「AISI関連研究機関の紹介」]
本セッションでは、NRC(National Research Council、カナダ) 、CSIRO/Data61(オーストラリア)、MLCommons(米国)、国立情報学研究所(NII: National Institute of Informatics、日本)の体制および取組紹介を通じ、AI安全性(Safety)・セキュリティ(Security)・信頼性(Reliability)の課題が共有されました。
また評価(Evaluation)/標準化されたベンチマーク(Standardized evaluation)/多言語・多文化対応/エージェントAIの新たな脅威モデルが共通の論点として報告されました。
[講演8 「国際機関の取り組み」]
本セッションでは、OECD、GPAI Tokyo、ASEAN、国連大学の取組が紹介されました。
OECDからは、AIガバナンス枠組みとして「OECD AI原則」の策定・実装状況が共有され、同原則がG20でも採択され国際的な共通基盤として機能している旨が示されました。併せて、OECD.AIによる政策実装支援と、エビデンスに基づく政策形成の重要性が述べられました。
GPAI Tokyoからは、GPAIの設立背景と実証研究を重視する取組が紹介されました。2024年のOECDとの統合により、専門的知見を政策形成に反映しやすい体制が整備された点が言及され、今後は専門知と国際政策の橋渡し機能の強化が期待されると発信されました。
ASEANからは、域内のAIセーフティ能力構築を目的とするAIセーフティ・ネットワーク構想が説明されました。加盟国間および国際パートナーとの連携により地域全体でAIリスクに対応する枠組みを目指し、段階的実装を通じて包摂的なAIガバナンスを確立する方針が示されました。
国連大学からは、AIの安全性・信頼性がSDGs達成に不可欠であり、AIが横断的に影響を与える技術であるとの指摘が共有されました。責任ある利用と国際協力の重要性が強調され、研究と政策を結ぶ国際的知の拠点として貢献していく考えが発信されました。
[講演9 「AIの今後について」]
本セッションでは、 Sonyが2018年からAI倫理の重要性を認識し、2021年に全社共通のAI倫理・ガバナンス体制を確立した旨が説明されました。AIは技術課題ではなく経営ガバナンスの中核であり、法務・コンプライアンスと一体で運用している点が強調されました。併せて、ガバナンスと事業成長の両立例としてSony AIが開発したGT Sophyをはじめとする技術の実用例が紹介され、人間が競い、楽しめる体験を実現する人間中心設計の重要性が述べられました。更に公平性・透明性を意識したデータ活用の事例として、同意に基づきバイアスを抑えた倫理的AIベンチマーキングのための公正な人間中心の画像データセットである「Fair Human-Centric Image Benchmark (FHIBE)」が紹介され、責任あるAIを実装で示す姿勢が強調されました。将来像として、自律的に仮説生成から実験まで担う「AI科学者」が創薬・材料科学等の研究を変え得ると指摘され、同時に個人向けAIエージェント普及に伴う依存・操作等の新たな倫理課題について慎重な議論が必要だと述べられました。
