動画生成画面で、テキストを入力するか画像をアップロードし、送信ボタンをクリックするだけ。あとは120秒から数分ほど待てば、AIが自動で動画を生成してくれます。より詳細な指示を出したい場合は、追加のプロンプトを入力することもできます。また、「Idea」ボタンからサンプルのプロンプトを試したり、「Enhance prompt」で指示を補強したりといった機能も用意されています。それでは、公式の【How to prompt?】を日本語訳にして見ていきましょう。
In a somber, nostalgic style, a young man sits on a tree stump in a forest, the warm autumn leaves surrounding him. He wears a brown jacket, dark shirt, and blue jeans, his fingers deftly moving along the fretboard of an acoustic guitar.
#Enhance pronptありにした場合
一般的に、具体的に説明した方が良い結果が得られるかもしれません:
- Camera motion: `*“A dramatic zoom in”, “An FPV drone shot”*`
- Actions and motion: `*“A teddy bear swimming with its arms and feet as the turbulent water splashes all around”*`
- Object features: `*“A white teddy bear wearing sunglasses with soft fur texture”*`
- Setting and background: `“A beautiful cloudy sunset near a Caribbean beach”`
このケースは単独のものではありません。2024年にJournal of Experimental Criminologyに発表された学術研究でも、Draft Oneを含むAI支援報告書作成システムが実際の時間短縮効果を示さなかったという結果が報告されています。これらの事実は、Axon社の主張と実際の効果に重要な乖離があることを示しています。
技術的には、長文脈での「needle in a haystack(干し草の山の中の針)」的検索・想起の正確性が論点です。Anthropicは内部評価で100%の再現性を謳いますが、これはあくまで社内テストであり、実運用におけるコード異臭検知や設計上のトレードオフ把握など、多層的な推論の持続性は現場検証が不可欠です。ただし、プロジェクト全体像を”丸ごと”見渡せること自体は、ファイル粒度の分割では失われがちだった依存関係と設計意図を保ったまま提案できる余地を広げます。