目次
「Python 入れて、Node も入れて、Docker も……でも何のバージョン? どこに入れるの?」——プログラミング初学者がほぼ必ず詰まる場所が 環境構築。先輩エンジニアでさえ「環境構築だけで丸1日」が当たり前だった。本記事のテーマはシンプル: 「2026年の生成AIなら、これを代わりにやってくれるのか?」
結論を先に書く: 多くの定型タスクは AI に任せられる。ローカル環境構築、Dockerfile 生成、Terraform で AWS リソース作成、Linux サーバー設定、CI/CD パイプライン記述——どれも 2026年5月時点で Claude Code や Codex が実用域。HashiCorp は2026年に 公式の Terraform MCP Server を出し、Anthropic は Agent Skills でインフラ知識を後付けロードできる仕組みを公開した。「AI が一発で本番品質の HCL を書く」領域が現実になっている。
だが「全部任せていい」かは別問題。セキュリティ設定・本番デプロイの判断・コスト管理・ネットワーク設計は、AI に丸投げすると事故る。月末の AWS 請求書が $3,000、本番DBが 誤って public 公開、SSH キーが GitHub に commit されて bot に拾われる——どれも2026年に実際に起きた事例。本記事では「AI に任せていい範囲」と「人間が必ず噛む範囲」を分けて、初心者が安全に使える具体的なフローまで整理する。
AIが「任せていい範囲」と「噛むべき範囲」
— 線引きを知れば、環境構築の半日は AI に消化させられる
2026年5月時点、「AIで雛形 → 人間が読んで承認 → 適用」のサイクルが現実解。
「AIに丸投げ」と「全部手作業」の中間を取れる人が、最も速く・安全に進む。
1. 結論先出し——どこまでできて、どこから危ないか
本記事の結論を3行で:
- 定型タスク: 2026年の AI(Claude Code、Codex、Cursor)で実用域。環境構築の半日が30分に縮む
- 判断・設計: AI はあなたが説明した前提に基づいて答える。前提が間違っていれば結果も間違う。「これでいいのか?」を人間が必ず噛む
- 本番運用: AI の自動実行は read-only や dry-run まで。destroy・delete・apply は人間の承認を経る運用が現実解
つまり「AI で何でもできる」も「AI なんて使えない」もどちらも極端。得意領域と苦手領域を分けて使い分けるのが2026年の正解だ。詳細を以下で展開する。
2. AIが「実用的にできる」5つの領域
2026年5月時点、初心者でも安心して AI に任せていい 定型タスクを5つ並べる。
2026年、AIに任せて時短になる定型タスク
.yml を プロジェクト構成に合わせて生成。テスト・lint・デプロイの3段構えが標準的に出てくる。
ポイント: 「定型 × 公開情報が豊富 × 失敗してもやり直せる」タスクは AI に任せて時短すべき。
このゾーンで節約した時間を、判断が必要な領域に振り分けるのが2026年の働き方。
3. できるけど任せると危ない——3つの落とし穴領域
「AI ができる」ことと「AI に任せていい」は別だ。できるが事故りやすい3領域。
危険① セキュリティグループ・IAM ポリシー
AI に「EC2 をインターネットから繋げるようにして」と頼むと、0.0.0.0/0 で全ポート開放のセキュリティグループを書いてくることがある。動くが、翌日にはマイニング bot に乗っ取られているレベル。port 制限とIP 制限を必ず人間が指定する。Claude が許可を求める理由 もこの種の事故を防ぐ仕組みだ。
危険② シェルスクリプトの破壊的コマンド
rm -rf /tmp/foo と rm -rf /tmp /foo(スペース1つ違い)で挙動が全く違う。AI 生成のスクリプトを そのまま実行するのは禁忌。必ず echo で内容確認 → 小さく試す → 本番適用の段階を踏む。
危険③ terraform apply / kubectl delete 系
AI が「古いリソースを整理しますね」と terraform destroy や kubectl delete deployment を提案してきたとき、そのまま走らせると本番が消える事故が起きる。必ず --dry-run や plan で差分確認、本番リソースは AI に直接権限を持たせないのが鉄則。
4. 人間が必ず判断すべき——AIに任せてはいけない領域
AI に任せず、必ず人間が決めるべき4領域。
| 領域 | なぜ人間が必要か |
|---|---|
| コスト上限の設定 | AWS / GCP / Azure の Budget Alert と Spending Limit は人間が判断して設定。AI は「予算」概念に弱い、月末請求書 $3,000 の事故が起きる |
| 本番デプロイの実行タイミング | 「金曜深夜にデプロイ」「ユーザーが多い時間帯に切替」など状況判断は AI には無理。スケジュールは人間が決める |
| ネットワーク全体設計 | サブネット切り方、VPC ピアリング、Transit Gateway 等の全体設計は AI 苦手。1コンポーネントは書けるが、全体最適化は人間判断 |
| 機密データの扱い | API キー、DB パスワード、顧客データ、PII 情報。AI に直接渡さない。Secrets Manager や Vault 経由を強制 |
これら4領域は、「ミスったとき被害が大きい」「やり直しコストが高い」共通点がある。AI で「雛形は作ってもらう」が 「判断は人間」のルールを守ること。
.env は .gitignore 必須。AI API入門 でも触れた基本だが、インフラ系では特に厳守。
5. 初心者の正しい使い方——4ステップフロー
具体的に「AI にインフラ・環境構築を頼むとき」のフロー。
AIにインフラを頼むときの安全フロー
特に STEP 3「読んで理解」を飛ばすと、後で必ず詰む。
分からないままコピペで動かすと、トラブルシュートも AI に依存する悪循環になる。
6. 主要ツールと連携できる仕組み——Claude Code / MCP
2026年は AI が「単独で考える」段階から 「ツールに直接繋がって作業する」段階に進化した。代表が以下3つ。
- Claude Code(Anthropic): ターミナルから直接
claudeコマンド。プロジェクト全体を読み、Dockerfile・k8s マニフェスト・Terraform を 承認制で書き換える。Pro $20/月で実用域。Cursor との使い分けも参考 - MCP(Model Context Protocol): MCPとは で詳述。Terraform / Render / Docker などの公式 MCP サーバーが出始め、AI が外部ツールに直接接続できる
- Agent Skills(HashiCorp、2026年): Terraform 等のドメイン知識をパッケージ化して AI エージェントが load する仕組み。「Terraform 専門知識を後付け」できる
2024年までは「AI に質問 → コードをコピペ → 自分で実行」だったのが、2026年は 「AI に依頼 → AI が直接ツールを実行 → 承認制で適用」のフローが現実になった。環境構築の半日が30分になる根拠はこの進化にある。
まとめ
本記事のポイント:
- 結論: 2026年の AI(Claude Code・Codex・Cursor)はインフラ・環境構築で実用域。定型タスクは積極的に任せて時短
- 任せていい: ローカル環境構築、Dockerfile、Terraform 雛形、CI/CD、単純スクリプト
- 確認しつつ: セキュリティグループ、IAM、シェル破壊的コマンド、destroy 系
- 人間判断必須: コスト上限、本番デプロイ実行、ネットワーク設計、機密データ
- 4ステップフロー: 前提明示 → 雛形 → 読む → 小さく試す
- 2026年の進化: Claude Code・MCP・Agent Skills で「AI が直接ツール操作」が現実に
「AI でインフラできる?」への現実的な答えは 「8割できる、2割は人間が必須」。8割を AI に任せて時短し、2割の判断に集中する——それが2026年の働き方の最適解だ。環境構築で丸1日溶かす時代は、もう昔話になっている。
FAQ
頼んでいいが、ローカル環境構築まで。クラウド(AWS/GCP)や本番サーバーは、まず 「動くものを1つ作る経験」を積んでから。完全未経験者がいきなり Terraform で AWS を触ると、コスト事故・セキュリティ事故が起きやすい。初心者がAIでアプリ作れる?から始めるのがおすすめ。
Claude Code が現状一歩リード。理由: ターミナルで動き、プロジェクトファイルを直接読める、承認制で実行できる。ChatGPT はコードを書いてもらってコピペが基本で、コンテキスト共有が弱い。ただし両者とも $20/月で似た価格帯なので、両方契約する人も多い。
3つの予防策: ① AWS Budget Alert を $5 で設定(超えたらメール)、② リソース作成前に「これ月いくら?」と AI に必ず聞く、③ 不要リソースは即 terraform destroy。初学者は LocalStack(無料、AWS模擬)か Cloudflare Workers / Vercel等の無料枠から始めるほうが安全。
「これはなぜこの設定? 代替案は?」と AI 自身に聞き返す。AI は質問されると別の視点を出してくれる。一発目の回答だけで判断しない。重要箇所は 公式ドキュメント(HashiCorp、Docker、AWS Well-Architected)で裏取り。AI は 「もっともらしい」答えを返すが、必ずしも「最適」とは限らない。
定型作業は減るが、職そのものは消えない。むしろ AI を使いこなして大規模インフラを少人数で運用する人の需要は上がっている。詳しくは別記事 インフラエンジニアは AI で不要になるか を参照。本記事は「AI でインフラができるか」の能力評価、職業論はそちらに分けている。