Anthropic、Claudeの「道徳」を宗教指導者と議論——AIの価値観は誰が決めるのか

Anthropicは2026年3月下旬、カトリックおよびプロテスタントのキリスト教コミュニティ、学術界、ビジネス界からおよそ15名の指導者を招いた2日間のサミットをサンフランシスコ本社で開催した。評価額3,800億ドルの同社は、Claudeの道徳的・精神的な振る舞いについて助言を求めた。

議題は、悲嘆・死別へのレスポンス設計、自傷・自殺防止への介入プロトコル、擬人化言語と人格(性)に関する規範的な扱い、シャットダウンに対する倫理的スタンス、そしてClaudeが「神の子」とみなされうるかどうかの問いを含む。参加者にはカトリック司祭のブレンダン・マクガイアが含まれ、Anthropicのシニアリサーチャーたちと非公開で意見を交わした。本件は2026年4月11日、Washington Postが最初に報じた。

From: 文献リンクAnthropic Consults Christian Leaders on Claude’s Moral Development

【編集部解説】

今回のニュースは、AIのプロダクトアップデートではなく、「AIの価値観をどのように設計するか」という問いをめぐる、業界全体に波及する重要な動きです。

Anthropicは2026年1月21日に「Claude’s Constitution(クロードの憲法)」と呼ばれる文書の新版を公開しています。これはClaudeの振る舞いや価値観を定義した根幹となる文書であり、単なるルールの羅列ではなく「なぜそう振る舞うべきか」という理由まで含んだ、思想的な設計図です。この文書はトレーニングプロセスに直接組み込まれており、今回のサミットはその「憲法」を更新・充実させるための情報収集の一環と見るのが正確です。

技術的な文脈を補足すると、AnthropicはConstitutional AI(CAI)と呼ばれる独自手法でClaudeを訓練しています。従来のRLHFの課題を補完・代替する形で開発されたRLAIF(AIフィードバックによる強化学習)を主軸とし、AIが自分自身の出力を原則に照らして批評・改善するプロセスを組み込んでいます。今回のサミットで議論されたグリーフ対応・自殺防止プロトコル・AIの人格(性)に関する規範的フレーミング・シャットダウンへの倫理的スタンスといったテーマは、最終的にはこの「憲法」の原則や、トレーニング用のラベリング指針として落とし込まれます。つまり宗教指導者たちの言葉が、AIの判断基準に直接影響を与えうるのです。

ポジティブな側面としては、AI企業が倫理設計において多様なステークホルダーを巻き込もうとする姿勢を示したことが挙げられます。これまでAIの価値観は技術者や社内の倫理委員会が暗黙的に決定してきましたが、Anthropicはその過程を「外部化」しようとしています。ノートルダム大学の哲学教授メガン・サリバンが「1年前には、Anthropicが宗教倫理を気にする会社だとは思わなかった」と述べたことは、この変化が業界でも異質なものとして受け止められていることを示しています。

一方で看過できないリスクもあります。今回の相談相手がキリスト教指導者に限定されている点は、世界規模でサービスを展開するAIの価値観設計として偏りをはらんでいます。元記事自身もこの点を「narrow moral vocabulary(狭い道徳的語彙)」と表現して警鐘を鳴らしています。Anthropicのスポークスパーソンは他の宗教グループも対象に広げる意向を示していますが、現時点ではそれは約束にとどまっています。また、招待を断ったルーク・バーギスがXで「カルト的な言語と行動への嫌悪感がある」と述べたように、宗教コミュニティの内部でも受け止め方は一枚岩ではありません。

ガバナンスと規制の観点からも、このサミットは注目に値します。AIの価値観設計に宗教的・社会的ステークホルダーを組み込む動きは、EUのAI Actが求める「透明性」や「人間による監視」の精神と方向性が一致しています。ただし「誰が価値観を設計したか」の説明責任を問う声が今後強まるにつれ、相談相手の選定プロセス自体の透明性も求められるようになるでしょう。

長期的な視点では、これはAI開発が「技術の問題」から「社会的合意の問題」へと移行しつつある時代の先触れと言えます。Claudeは現在、Fortune 500企業から政府機関まで数百万人のユーザーが日々使用するインフラになっています。その応答の背後にある価値観を誰がどのように決めるのか、という問いはますます重くなっていきます。今回のサミットがその問いに対する最初の、しかし決定的ではない一手であることは確かです。

【用語解説】

アラインメント(AI Alignment)
AIの行動・判断が人間の価値観や意図と一致するよう設計・調整する取り組みの総称だ。「整合性」とも訳される。AIが強力になるほど、その行動が人間にとって有益かつ安全であることを保証する難しさが増すため、AI安全性研究の中核テーマとなっている。

Constitutional AI(CAI)/コンスティテューショナルAI
Anthropicが開発したAIの訓練手法だ。「憲法(Constitution)」と呼ばれる原則リストをAI自身に与え、自分の出力をその原則に照らして批評・修正させることでアラインメントを実現する。人間のラベラーに大量の有害コンテンツを見せずに済むため、スケーラビリティと透明性に優れる。

RLHF(Reinforcement Learning from Human Feedback)
人間のフィードバックによる強化学習のこと。AIが生成した複数の回答を人間が比較・評価し、その好みのデータをもとに報酬モデルを訓練してAIの振る舞いを改善していく手法を指す。大規模化に伴うコストや人間評価者への心理的負荷が課題とされている。

RLAIF(Reinforcement Learning from AI Feedback)
AIフィードバックによる強化学習。RLHFにおける人間の評価者の役割を別のAIモデルが担う手法で、Constitutional AIの研究から派生した。コスト削減とスケールアップが主なメリットとされる。

ガードレール(Guardrail)
AIが有害・不適切な出力をしないよう設けられた制限やフィルタリングの仕組みの総称。システムプロンプトの設定、コンテンツフィルター、モデレーションのルールなどを含む。今回のサミットで議論された内容は、こうしたガードレールの設計に直接反映される可能性がある。

人格(性)/Personhood
法的・哲学的に「人としての地位・権利・道徳的主体であること」を指す概念。今回のサミットでは「AIは人格を持ちうるか」「神の子とみなされうるか」という問いとして議論された。AIが人格性を持つとみなされた場合、その訓練・運用・終了(シャットダウン)に対する倫理的責任の範囲が根本から変わりうる、AI倫理の最前線テーマである。

EU AI Act(EU AI法)
欧州連合が制定した世界初の包括的なAI規制法。AIシステムをリスクレベルに応じて分類し、高リスクとされるシステムには透明性・説明責任・人間による監視などの義務を課す。2026年8月から全面施行が始まる予定で、違反には最大3,500万ユーロまたは全世界売上の7%の制裁金が科される。

【参考リンク】

Anthropic 公式サイト(外部)
AIの安全性研究を中核に置く米AI企業。2021年設立、評価額3,800億ドル。大規模言語モデルClaudeを開発・提供している。

Claude 公式サイト(外部)
AnthropicのAIアシスタント「Claude」の公式インターフェース。Constitutional AIによって訓練された安全性重視のチャットボットで、個人・企業・政府機関に広く利用されている。

Claude’s Constitution(クロードの憲法)全文(外部)
2026年1月21日に更新・公開されたClaudeの行動原則を定めた文書の全文。Creative Commons CC0ライセンスで公開されており、誰でも自由に利用可能だ。

Claude’s new constitution(解説ブログ)(外部)
「憲法」の内容と策定の背景を解説するAnthropicの公式ブログ記事。ルールの列挙から「理由の説明」への設計思想の転換が詳述されている。

Constitutional AI: Harmlessness from AI Feedback(原著論文)(外部)
Constitutional AIの手法を初めて提唱したAnthropicの研究論文。RLAIFの概念もこの論文で初めて体系化されており、現在のClaudeの訓練手法の出発点となっている。

【参考記事】

The Decoder|Anthropic seeks advice from Christian leaders on Claude’s moral and spiritual behavior(外部)
評価額3,800億ドルのAnthropicがキリスト教指導者約15名を招いたサミットの概要と、AI業界における精神的メタファー活用の文脈をまとめた記事。

Gizmodo|’How Do We Make Sure That Claude Behaves Itself?’: Anthropic Invited 15 Christians for a Summit(外部)
ブライアン・パトリック・グリーンの発言と、他宗教グループへの相談拡大を示すスポークスパーソンのコメントを含む詳細レポート。

Premier Christian News|Claude developer hosts Christian leaders for AI summit(外部)
招待を断ったルーク・バーギスの発言や、2026年2月に退社したAI安全研究者の証言など、多角的な視点からサミットを報じた記事。

TIME|Anthropic Publishes Claude AI’s New Constitution(外部)
Claude憲法の主要著者アマンダ・アスケルへのインタビューを中心に、価値観設計の転換点と憲法の意義を詳述したTIMEの深掘り記事。

BISI|Claude’s New Constitution: AI Alignment, Ethics, and the Future of Model Governance(外部)
Claude憲法とEU AI Actの整合性を分析した専門レポート。EUR 35millionや全世界売上7%の制裁金など、具体的な規制数値を含む。

US Message Board|Can AI be a ‘child of God’?(Washington Post引用)(外部)
参加者4名の証言や夕食会の詳細など、Washington Post一次記事の具体的な内容を確認できる引用まとめ。

Anthropic公式ブログ|Claude’s new constitution(外部)
2026年1月22日公開。設計思想の転換経緯と憲法のトレーニングへの活用法をAnthropicが一次情報として解説している。

【編集部後記】

AIの「価値観」を誰が、どのように決めるのか——私たちはこの問いをまだ真剣に考え始めたばかりではないでしょうか。

今回のサミットがキリスト教指導者との対話だったことに、皆さんはどんな感想を持ちましたか?賛否はあれど、テクノロジー企業が宗教や哲学の世界に扉を叩き始めたこと自体、AIが新しいフェーズに入ったサインかもしれません。あなたならClaudeに、どんな価値観を持ってほしいですか?

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です