Manusを使い始めてしばらくの間、私は何度も失敗した。
「期待と全然違う結果が返ってきた」「タスクが途中で止まった」「出力に間違いが含まれていた」——こういった経験を繰り返しながら、少しずつ使い方を覚えていった。
この記事では、私がManusで実際に失敗した話を正直に書く。どういう指示がまずくて、何が返ってきて、どう改善したか。失敗談は成功談より学びが多い。
結論から言う——失敗の9割は「指示の問題」だった
一言で言えば、Manusでの失敗のほとんどは、AIの性能の問題ではなく指示の設計ミスだった。ゴールが曖昧、スコープが広すぎる、情報源を指定しない——この3パターンで大半の失敗が説明できる。
これを理解してから使い方が変わった。「Manusに失敗させないためにどう指示するか」を考えるようになったのだ。
Manus(マナス)の基本動作——なぜ失敗が起きやすいか
Manusとは、完全自律型AIエージェントだ。タスクを渡すと、自分でブラウザを操作してウェブを巡回し、情報を収集・整理して成果物を作る。中国発でMeta傘下、公式サイトはmanus.im、2026年現在は一般公開されている。
失敗が起きやすい理由はその自律性にある。「ゴールまで一人で走る」構造なので、指示が曖昧だとManusが自分なりに補完して動く。その補完が期待と違う方向へ向かうと、「全然違う結果」になる。
失敗談1——「なんでも調べてほしい」の罠
どんな指示を出したか
「生成AIの最新動向について調べてまとめてほしい」
何が返ってきたか
生成AIの定義から始まり、主要なモデル(GPT-4、Claude、Geminiなど)の概要、活用事例の紹介——というとても汎用的なレポートが返ってきた。どこかで見たような内容で、私が知りたかったことはひとつも含まれていなかった。
何が問題だったか
「最新動向」「生成AI」という言葉はどちらも広すぎる。Manusは「最新動向」をどう解釈するかを自分で決めるしかなく、「一般的に正しそうな内容」を返した。私の意図とは完全にすれ違っていた。
どう直したか
「2026年2月〜3月にリリースされた主要LLMモデルのアップデート情報を調べてほしい。対象:OpenAI・Anthropic・Google DeepMindの公式ブログ。形式:モデル名・リリース日・主な変更点を箇条書きで。件数:5〜8件」という指示に変えた。返ってきたレポートは、私が欲しかった内容に近くなった。
失敗談2——情報源を指定しなかったら嘘が混じった
どんな指示を出したか
「〇〇社の最新の資金調達情報を調べてほしい」
何が返ってきたか
金額・投資家名・日付が書かれたレポートが返ってきた。内容は整っていて、一見信頼できそうに見えた。しかし一次情報を確認してみると、金額が間違っていた。Manusが参照したと思われる二次情報源の誤りをそのまま取り込んでいたようだ。
何が問題だったか
情報源を指定しなかったことで、Manusが自由にウェブを巡回した。信頼性の低いまとめサイトや転載記事が混入し、誤情報が出力に含まれた。特に数値データ(金額・日付・スペック)は一次情報なしには信頼できないと改めて実感した。
どう直したか
情報源を「TechCrunch、Crunchbase、各社公式プレスリリース」に限定した指示を出した。また「数値は必ず出典URLを付けてほしい」という指示を追加した。これにより、後で一次情報を確認しやすくなった。
失敗談3——スコープが広すぎてタスクが途中で止まった
どんな指示を出したか
「SaaSツールの比較をしてほしい。マーケティング自動化・CRM・プロジェクト管理・BI・データ分析の各カテゴリで主要ツールを全部調べてほしい」
何が起きたか
タスクが約40分実行された後、エラーで止まった。最終的に出力は「マーケティング自動化」カテゴリだけ途中まで完成した状態で終わっていた。クレジットも大量に消費した。
何が問題だったか
カテゴリが多すぎて、1回のタスクで処理できる範囲を超えた。Manusは長時間のタスクに対応できるが、スコープが大きすぎると実行途中で制限に引っかかることがある。
どう直したか
カテゴリを1つに絞り、「マーケティング自動化ツールの主要5製品を比較してほしい」という形に切り直した。1回のタスクでカバーする範囲を絞ることで、完走率が上がり出力の質も改善した。
失敗談4——日本語の情報源を混在させたら精度が落ちた
どんな指示を出したか
「日本のAIスタートアップの動向を調べてほしい。日本語と英語のメディア両方を参照してほしい」
何が返ってきたか
英語メディアからの情報はしっかり取得できていたが、日本語メディア(ASCII.jp、ITmedia、各社プレスリリース)からの情報は取得できていないものが多く、「英語で書かれた日本関連記事」を中心にまとめた内容になっていた。
何が問題だったか
Manusは英語サイトへの対応精度が高い一方、日本語サイトはサイト構造によって取得に失敗することがある。「両方参照してほしい」という指示では、結果的に英語情報に偏った出力になった。
どう直したか
「英語メディア(TechCrunch Japan、Forbes Japan英語版、各社英語プレスリリース)に絞って調べてほしい」と変更した。あるいは日本語情報は別途自分で補完する前提でタスクを設計するようにした。
失敗談5——「定性的な評価」を求めたら薄い内容が返ってきた
どんな指示を出したか
「Notion と Confluence を比較して、どちらがチームで使いやすいか評価してほしい」
何が返ってきたか
機能の並列リストと「チームの規模・用途によって適したツールが異なります」という結論。どのツールレビュー記事でも見かける内容で、判断に役立つ具体性がなかった。
何が問題だったか
「どちらが使いやすいか」という定性的・主観的な評価は、Manusには苦手だ。Manusはウェブから情報を集めて整理するのは得意だが、評価・判断・推薦という作業は人間の文脈依存が強く、AIが代替しにくい。
どう直したか
「G2とProductHuntのレビューから、Notionに関する好評・不満点を各10件抽出してほしい。同様にConfluenceも」という事実ベースの指示に変えた。「どちらが良いか」という評価は自分でやり、Manusには「評価の素材を集める」役割を担わせた。
失敗から見えてきた「Manusへの指示の原則」
5つの失敗を通じて見えてきたことを整理する。
- 事実を集めさせる:評価・判断・推薦はManusが苦手。ファクトの収集と整理に徹させる
- 情報源を必ず指定する:信頼できるソースをリストで渡すと出力の品質が安定する
- スコープを絞る:1タスクで扱う範囲は小さく設定する。大きいテーマは複数タスクに分割する
- 数値データは出典付きで:金額・日付・スペックなどの数値は「出典URLを付けてほしい」を添える
- 日本語情報は別途補完する前提で:英語情報を中心に設計し、日本語は自分で確認する
よくある質問(FAQ)
Q1. Manus でよくある失敗を一言で表すと?
「指示が曖昧すぎた」だ。ゴールが不明確・スコープが広すぎる・情報源を指定していない——このどれかに当てはまることがほとんどだ。失敗したと感じたときはまず「指示のどこが曖昧だったか」を振り返るとよい。
Q2. タスクが途中で止まったとき、クレジットはどうなりますか?
実行された分のクレジットは消費される場合がある。完全な失敗ではなく途中まで動いた場合は、部分的に消費されていることが多い。同じ指示で再実行する前に、スコープを絞るか参照先を変えてから試すとよい。同じ指示の再実行は同じ失敗を繰り返しやすい。
Q3. Manus の出力に間違いが含まれていたらどうすればいいですか?
重要な情報(数値・固有名詞・日付)は必ず一次情報で確認する。Manusの出力はあくまで「素材」であり、そのまま使うと誤情報が含まれるリスクがある。特に資金調達額・料金・スペック・統計データは出典確認を怠らないこと。
Q4. 失敗を減らすために最初にやるべきことは?
タスクを投げる前に「このタスクのゴールをひと言で書く」練習をすることだ。「〇〇を調べる」ではなく「〇〇を使って〇〇を判断するために〇〇を集める」という形で目的・手段・成果物を明確にしてから指示を書くと、失敗率が大きく下がる。
Q5. Manus に「定性的な評価」をさせることはできますか?
完全にはできない。「どちらが良いか」「どちらがおすすめか」という主観的評価は、Manusが得意とする情報収集・整理の領域を超えている。レビューサイトのユーザーの声を収集させて「評価の素材」を揃えることはできるが、最終的な評価・判断は人間がやるべき仕事だ。
Q6. Manus で日本語の情報を収集する方法はありますか?
日本語サイトも対応しているが、英語サイトより精度にばらつきがある。精度を上げるには、日本語の信頼できる情報源(ITmedia、日本経済新聞、各社公式プレスリリース)を明示的に指定する。ただしサイトの構造によって取得に失敗するケースもあるため、重要な日本語情報は自分で確認する前提が安全だ。
Q7. 失敗体験を活かすためにどんな記録をとっていますか?
うまくいった指示と失敗した指示の両方をメモに残している。特に「失敗した指示→改善後の指示→改善後の出力の評価」という3セットで記録すると、同じミスを繰り返さない。Notionやシンプルなテキストファイルで十分だ。このプロンプトライブラリが最も価値のある「Manus活用資産」になっていく。
注意点・失敗しやすいポイント
- 失敗しても「Manusが使えない」と決めつけない:失敗の原因を分析してから判断する。ほとんどは指示の改善で解決できる
- 同じ指示を再実行しない:失敗した指示をそのまま再実行しても同じ結果になりやすい。必ず何かを変えてから再試行する
- 数値・日付の確認を省かない:Manusが出力した数値データは必ず一次情報で検証する習慣を持つ
- 大きなタスクは分割する:1回のタスクで扱うスコープを小さくする。大きいタスクを1回で完走させようとするとエラーが起きやすい
- 日本語情報は補完前提で設計する:英語情報を中心に設計し、日本語は自分で追加確認する運用が現実的だ
まとめ——失敗はManusの使い方を教えてくれる最良の教師だ
Manusで失敗した話を正直に書いた。結局のところ、失敗の多くは「Manusに何を任せ、何を任せないか」の判断ミスと、「指示の曖昧さ」に集約される。
ファクトの収集・整理はManusに任せる。評価・判断・補完は人間がやる。この役割分担を意識してから、失敗の頻度は大きく下がった。
Manusを使い始めたばかりの人は、最初の数回で失敗することを前提にするとよい。その失敗が「どんな指示がまずかったか」を教えてくれる。失敗のログを残しながら使い続けることが、Manusをうまく使いこなす最速の道だ。
manus.imから無料で始めてみてほしい。最初の失敗は、必ず次の成功につながる。