「Text to Texture」機能は、Adobe Substance 3D Samplerのベータ版に導入され、スケールのある皮膚や織物など、プロンプト記述から「写実的またはスタイリッシュなテクスチャ」を生成できます。これらのテクスチャは3Dモデルに直接適用可能で、デザイナーが適切な参照資料を探す手間を省きます。
もう一つの機能は、「Generative Background」ツールで、これはSubstance 3D Stagerで利用可能です。デザイナーがテキストプロンプトを使用して、3Dシーンに構成するオブジェクトの背景画像を生成できます。これらの機能は、Adobeの以前のFirefly駆動ツールと同様に2Dイメージング技術を使用しており、3Dモデルやファイルを生成するのではなく、テキスト記述から生成された2D画像を3Dのように見える方法で適用しています。
これらの新機能は、Substance 3D Sampler 4.4とStager 3.0のベータ版で利用可能で、ベータ期間中は無料です。Adobeが所有するアセット、同社が制作した参照資料やライセンス付きのAdobeストックに基づいてトレーニングされています。
この技術の導入により、デザイナーは参照資料を探す時間を節約し、より創造的な作業に集中できるようになります。例えば、「Text to Texture」機能を使用して「スケールのある皮膚」や「織物」などのテクスチャを生成し、これらを3Dモデルに直接適用することができます。また、「Generative Background」ツールを使用すると、テキストプロンプトから3Dシーンの背景画像を生成でき、これによりシーン全体の構成がより迅速かつ簡単に行えるようになります。
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。