自動化の境界線は「判断」にある——そしてその先へ

Epic Quest CTOの森本です。

判断に必要な材料を揃えるところまでは自動化する。判断自体は人間がやる。 これが今の方針。でも正直、これは既存のAIツールが全部やってることでもある。GitHub CopilotもCursorも、結局「AIが提案→人間が判断」という構造。

この記事では、今やってることと、その先に向かいたい方向、そしてAI時代に人間に本当に残るものは何かを考える。

今の自動化:材料を揃えて、判断は人間

Terraformを例にすると、こういう分担。

自動 – PRを出したらplan実行 – plan結果をPRにコメント – 差分の要約を生成

人間 – plan結果を見て「これで良いか」判断 – applyボタンを押す

判断材料はAIで自然言語に要約させてる。

## 変更サマリー

- EC2インスタンス `web` のインスタンスタイプを t3.medium → t3.large に変更
- セキュリティグループ `api-sg` にポート443のインバウンドルールを追加
- 削除されるリソースはありません

## 注意点

- インスタンスタイプの変更により、一時的なダウンタイムが発生します

これなら「何が起きるか」が一目でわかる。判断のスピードが上がる。

次のステップ:トリガーも自動にする

今考えてるのは、人間が指示を出す側から、承認する側に回ること。

従来

人間: 「このタスクやって」と指示
  ↓
AI: 作業
  ↓
人間: レビュー → 承認

次のステップ

AI: イシューやバックログを監視して、タスクを自動で拾う
  ↓
AI: 作業
  ↓
AI: 結果をチャット(Slack/Discord)に投稿
  ↓
人間: 通知を見て「OK」か「やり直し」を判断

人間は「やって」と言わなくていい。AIが勝手に動いて、結果だけ報告してくる。人間は見て承認するだけ。

さらにその先:バックログ生成もAIに

もっと言うと、バックログ自体もAIに作らせたい。

目指す形

人間: 「こういうの作りたい」とゴールを出す
AI: 要件に分解 → タスクに分解 → 作業 → 報告
人間: 承認

人間がやるのは、最初のゴール設定と、最後の承認だけ。

デメリットと対応

この方向に進むことのリスクも考えておく必要がある。

AIが暴走したとき止められるか

自動でタスクを拾って、自動で作業して、結果だけ出てくる。途中で変な方向に進んでても気づけない可能性がある。

対応:チェックポイントとやり取りを残す

完全に任せきりにしない。要所要所で「ここまでの方向性、合ってる?」と確認を入れる。

結果だけ出されても「なんでこうなった?」がわからないと判断しづらい。人間同士の仕事でも「結果だけ出しといて」って丸投げされたら不安になる。途中で方向性合ってるか確認したいし、想定と違う方向に進んでたら早めに軌道修正したい。AIも同じ。

やり取りを全部見る必要はない。ポイントは報告の粒度を設計すること。

  • 方向性を決める場面 → やり取りする
  • 決まった作業を進める場面 → 結果だけでいい
  • 想定外のことが起きた場面 → 報告してもらう

あとはロールバック手段を必ず用意しておく。何かあったら戻せる状態にしておけば、致命傷にはならない。

判断材料が要約されすぎる

自然言語で要約されると読みやすい。でも要約の過程で重要な情報が落ちることもある。

対応:原文へのリンクを残す

要約だけで判断させない。「詳細はこちら」で原文に飛べるようにしておく。要約+詳細の2段構え。

若手が育たない

ある程度スキルがある人なら、AIにガンガン任せていい。判断する側に回って、生産性を上げればいい。

でも若手は違う。最初から判断だけやってたら、基礎スキルが身につかない。会社でも、現場で手を動かすフェーズを経て、判断する側に昇格していく。いきなりマネージャーにはなれない。

対応:育成フェーズでは意図的に手を動かす経験を積ませる

…と書いたものの、ここで一つ疑問が出てくる。

「判断」って何をしてるのか

ここまで「判断は人間がやる」と書いてきた。でも、よく考えると判断って何をしてるのか

AIが「これでどう?」と出してくる。人間は「いいね」か「違う」と答える。

これ、判断というより照合じゃないか。

自分の頭の中にある「こういうのが欲しい」というイメージと、AIが出してきたものを照合してる。合ってたらOK、違ったら「こっち」と伝える。

だとすると、人間がやってることは: – イメージを持つこと – イメージと照合すること – 違ったら伝えること

「判断」という言葉は大げさで、実態はイメージとの照合

イメージとは何か

ここで言う「イメージ」を定義しておく。

イメージ = ゴール、またはソリューション

  • 「こういうものが欲しい」という完成形の像
  • 「この問題をこう解決したい」という方向性

まだ言語化されてない、頭の中にある形。「なんかこんな感じ」というやつ。

このイメージがあるから、AIの出力を見て「合ってる」「違う」と言える。イメージがなかったら、AIが何を出してきても「いいんじゃない?」としか言えない。

イメージの伝え方は進化する

今、イメージを伝えるには言語化が必要。文章で書くか、会話で伝えるか、コードで表現するか。

でもこれ、将来変わる。

今:言語化して伝える – 「こういう機能が欲しい」と文章で書く – 設計書を作る – 会話で説明する

近い将来:複数案から選ぶだけ – 「こんな感じ」とざっくり伝える – AIが「これ?これ?これ?」と複数案を出す – 人間は「2番目が近い、でもここはこう」と選ぶ

最終形:イメージを直接入力 – 脳波インターフェース(BMI)などで、頭の中のイメージをそのまま伝える – 言語化すら不要になる

「複数案から選ぶ」段階で、既に言語化スキルの重要度は下がる。「うまく説明できないけど、こんな感じ」で伝わるようになる。

最終的に人間に残るもの

そう考えると、人間に最終的に残るのは「イメージを持つこと」だけ

  • 言語化 → AIが補完、または不要になる
  • 照合 → AIが「これ合ってる?」と聞いてくれる
  • 判断 → イメージとの照合なので、イメージがあれば自動的にできる

イメージを持つこと。「こういうのが欲しい」「こうしたい」という意思を持つこと。これだけは人間にしかできない。

AIはイメージを実現する手段をいくらでも出せる。でも「何を実現したいか」は人間が決めるしかない。

育成で本当に積むべきもの

だとすると、育成フェーズで積むべきは:

イメージを持つ訓練 – いろんなプロダクトに触れる – 「なぜこれは良いのか」を考える – 「自分だったらこうする」を考える

イメージの解像度を上げる訓練 – 良いもの / 悪いものを見分ける経験 – 「なぜこれはダメなのか」を言語化する経験(今はまだ必要) – 手を動かして「こうすると、こうなる」を体感する経験

手を動かすこと自体が目的じゃない。手を動かすことで、イメージの解像度を上げる。

「判断できる人」を育てるんじゃなくて、「イメージを持てる人」を育てる

まとめ

今の自動化の境界線は「判断」にある。でも判断の正体はイメージとの照合。

向かいたい方向 – トリガーも自動化して、人間は承認する側へ – バックログ生成もAIに任せて、人間はゴールを出すだけに – イメージを伝える手段も進化する(言語化 → 選択 → 直接入力)

リスクへの対応 – 暴走リスク → チェックポイント、やり取りを残す、ロールバック手段 – 要約で情報が落ちる → 原文へのリンクを残す – 若手が育たない → イメージの解像度を上げる経験を積ませる

最終的に人間に残るもの – イメージを持つこと

言語化もコーディングも、イメージを伝える手段でしかない。その手段が進化しても、イメージを持つことだけは人間に残る。

「何を作りたいか」を持ってる人が、AIを使いこなせる。


質問や感想があれば、お問い合わせからどうぞ。