Apple Intelligenceに対する評価は賛否両論である。元ライバルのSteven Sinofsky氏は「非常に優れた仕事」と評価し、Teslaの元研究者Andrej Karpathy氏も「非常に興奮している」と述べている。しかし、Bilawal Sidhu氏はデータセキュリティのリスクを指摘している。
Apple IntelligenceのAI生成画像とGenmojiについても賛否が分かれている。Simon Willison氏はAppleのアプローチを称賛し、倫理的な問題を回避していると評価しているが、一部のユーザーはAI生成画像の見た目に批判的である。
Apple Intelligenceの導入により、同様の機能を提供する第三者のAIパワードアプリやサービスが影響を受ける可能性がある。
Apple IntelligenceのAIモデルのトレーニングデータについては、一部のユーザーから疑問が呈されている。Appleの幹部は、モデルが「公開ウェブのデータ」とライセンスされたデータを組み合わせてトレーニングされたと述べている。
Apple Intelligenceは、AIを機能ではなく製品として位置づけるアプローチを取っていると評価されている。
Apple Intelligenceの導入により、AIを製品ではなく機能として捉える新たなアプローチが示されました。これは、AI技術をプラットフォーム全体に統合することで、ユーザー体験を向上させるというAppleのビジョンを反映しています。しかし、このサービスがどのように個人データを扱い、プライバシーを保護するかについては、一部から懸念が示されています。特に、AIモデルのトレーニングに使用されるデータの出所に関する透明性が問題視されています。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。