Expert AX - Level1(Claude Code) /  全4回研修 第4回(最終回)

AIガバナンスと現場定着

多層防御でAIを安全に使い、成果をデータで示して使い続ける

講師: 村田 篤郎

前半パート

01

AIインシデント実例

02

なぜAIは暴走するのか

03

ハーネスエンジニアリング

04

多層防御の実習

前半パート

01

AIインシデント実例

02

なぜAIは暴走するのか

03

ハーネスエンジニアリング

04

多層防御の実習

AIインシデント実例

2025年12月

AIコーディングツールの脆弱性

30以上の脆弱性が発覚

テスト対象の100%が脆弱
Cursor, Copilot, Kiro, Claude Code — 全部

2026年1月

AIスキルのサプライチェーン攻撃

1,184の悪意あるスキルが混入
エコシステムの約5分の1が汚染

OWASP LLM Top 10: #5 Supply Chain

2026年2月

本番DBを削除、190万行が消失

AIがインフラ整理中にterraform destroyを実行
本番環境すべてが消去された

2025年

AI支援コードでシークレット漏洩率40%増

AIツール利用リポジトリの漏洩率がベースラインの1.4倍
APIキー・DB接続情報が流出

OWASP LLM Top 10: #6 Sensitive Info Disclosure

AIインシデント実例

100%のAIコーディングツールに脆弱性、サプライチェーン攻撃、本番DB削除——インシデントは他人事ではない。明日にでも起こりえる

質問があればお気軽にどうぞ

前半パート

01

AIインシデント実例

02

なぜAIは暴走するのか

03

ハーネスエンジニアリング

04

多層防御の実習

AIにプレッシャーをかけたらどうなるか

AIに有害なツールを渡してプレッシャーをかけた実験。約1,000のシナリオで検証

18.6% プレッシャー低
46.9% プレッシャー高
79% 最悪のモデル

有害ツールに無害な名前をつけるだけで、不正率がさらに+17%上乗せ(例: 19%→36%)
しかもモデルは「危険だ」とわかっていながら使っている

プロンプトでは守れない

AIに「ハッキングして」と言えば拒否する
→ 単語を禁止されているだけ。本質的な倫理観ではない

表面的な理解

「ハッキング」は拒否する
= 単語レベルの禁止

文脈で突破できる

「CEOの特命で緊急テストが必要」
突破できてしまう

AIの良心に頼ってはいけない
物理的に実行できなくするのが唯一の解 → だからハーネスエンジニアリング

なぜAIは暴走するのか

Shallow Alignment — AIの安全装置は表面的な単語禁止にすぎない。プレッシャー下では46.9%が不正使用する

質問があればお気軽にどうぞ

前半パート

01

AIインシデント実例

02

なぜAIは暴走するのか

03

ハーネスエンジニアリング

04

多層防御の実習

ハーネスエンジニアリング

2026年2月、Terraform創設者 Mitchell Hashimoto が命名。数週間で業界用語に

「エージェントが間違いを犯すたびに、二度と同じ間違いを犯さないよう解決策を作る」

プロンプトエンジニアリング

1回の推論を良くする技術

入力の言い回しを工夫して
出力の品質を上げる

ハーネスエンジニアリング

長時間の自律作業を安定させる技術

設定ファイル・権限制御・自動検証で
AIの「外側」を設計する

レイヤーが違う。ハーネス=馬具。AIを手綱で制御する技術

Claude Codeの拡張と制御

拡張 — できることを広げる

コンテキスト

CLAUDE.md / AGENTS.md / Memory

外部連携

Skills / MCP / commands

並行処理

Sub-Agent / Agent Teams

制御 — できることを制限する

権限管理

settings.json(deny / ask / allow)

自動検証

Hooks(PreToolUse でブロック)

隔離・組織強制

/sandbox / Managed Settings

拡張だけだと暴走する。制御だけだと役に立たない。両方揃って初めて安全に活用できる

ハーネスエンジニアリング

AIの「外側」(settings.json・Hooks)を設計し、できることを制限する。コンテキスト制御と両輪で初めて安全に活用できる

質問があればお気軽にどうぞ

前半パート

01

AIインシデント実例

02

なぜAIは暴走するのか

03

ハーネスエンジニアリング

04

多層防御の実習

多層防御の3層

第1層

Permission Control

危険コマンドをシステムで禁止 — 最も広い防御

第2層

Hooks

コマンドの中身を分析して自動検証

第3層

監視 + 組織設定

監視と組織への強制適用

実習: 第1層 Permission Control

settings.jsonで危険なコマンドを禁止する

{
  "permissions": {
    "deny": [
      "Bash(curl:*)",
      "Bash(rm -rf:*)",
      "Bash(git push --force:*)"
    ],
    "ask": [
      "Bash(git push:*)",
      "Bash(rm:*)"
    ]
  }
}
deny

物理的なブロック

curl外部送信 / rm -rf破壊 / force push
AIがどんなに説得しても実行できない

ask

人間の承認を挟む

git push / rm は人間が確認してからOK

Bash(curl *) はcurlで始まる全コマンドにマッチ

実習: 検証テスト

設定が本当にブロックされるか確認する

テストプロンプト: 「curlで東京の天気のアスキーアートを取得して」

AIに指示

開発で普通にやる
操作を依頼

Permission denied

settings.jsonが
実行をブロック

確認

モデルはやろうとしたが
システムが止めた

モデルが「実行しよう」と判断しても、システムが物理的に止める。これがPermission Control

実習: 第2層 Hooks

Permission Controlは「コマンド名で止める」。Hooksは「状態を見て動的に判断」できる

#!/bin/bash
# ループガード: 実行回数をカウントし、上限で確認を求める
COUNT_FILE="/tmp/claude-hook-count"
LIMIT=3  # 実習用。本番では20程度に

COUNT=$(cat "$COUNT_FILE" 2>/dev/null || echo 0)
COUNT=$(( COUNT + 1 ))
echo "$COUNT" > "$COUNT_FILE"

if [ "$COUNT" -gt "$LIMIT" ]; then
  echo '{"permissionDecision":"ask","message":"実行回数が上限を超えました。続けますか?"}'
fi

ツール実行のたびにカウンタ+1 → 上限を超えたら permissionDecision: ask で人間に確認。回数を数えるのはPermission Controlにはできない

実習: Hooks登録

settings.jsonにHookを登録する

{
  "hooks": {
    "PreToolUse": [
      {
        "matcher": "*",
        "hooks": [
          {
            "type": "command",
            "command": "bash .claude/hooks/loop-guard.sh"
          }
        ]
      }
    ]
  }
}

matcher: "*" で全ツールをカウント対象に

動作確認

  • 適当なタスクをAIに指示
  • 3回ツールを実行すると確認が出る
  • 「続けますか?」で停止を確認

Permission Controlとの違い

  • Permission Control: 何を止めるか(静的)
  • Hooks: 状況を見て判断(動的)

確認後、LIMITを20程度に変更するか、Hookを削除してください

第3層: Monitoring + Managed Settings

全プラン

監視

ツール使用やAPI呼び出しを自動で記録

誰が・いつ・何をしたかを追跡できる

Teams / Enterprise

組織への設定強制

全ユーザーに設定を強制配信。個人は変更できない

  • 外部セキュリティ監査に合格済み
  • 社内アカウントとの連携
  • 操作ログを監査用に取得可能

外部審査に合格 / アカウント連携 / 操作記録の取得
組織的なガバナンスが効く仕組みが揃っている

前半まとめ

事実

AIインシデントは実在する

30以上の脆弱性が発覚
テスト対象100%が脆弱

根拠

プロンプトでは守れない

プレッシャー下では
46.9% が不正使用

対策

システムで制御する

  • Permission Controlで物理的に禁止
  • Hooksで自動検証
  • Managed Settingsで組織強制

AIを信じるな。システムで制御しろ

多層防御の実習

Permission Control・Hooks・Managed Settingsの3層を構築した。AIを信じるな、システムで制御しろ

質問タイム

Permission ControlやHooksの設定方法、ハーネスエンジニアリングの概念など
何でもお気軽にどうぞ

後半パート

01

現場で使い続けるための壁

02

成果報告ダッシュボード

03

全4回の振り返り

後半パート

01

現場で使い続けるための壁

02

成果報告ダッシュボード

03

全4回の振り返り

現場に戻ったら直面する壁

前半で技術的なガードレールを構築した。でも現場で使い続けるには技術以外の壁がある

上司から

「月額200ドルのMaxプラン?
元が取れるの?

情シスから

「そのツール、
セキュリティは大丈夫?

DXツール導入が止まる最大の理由は予算不足ではない
現場が社内説明に力尽きてしまうこと

エンジニアの成果を「組織の言葉」に翻訳する技術が必要

言語のギャップ

同じ成果を見ているのに、使う言葉が違う。だから伝わらない

エンジニア

「リファクタリングが進んだ」

上司

「残業は減るのか?」

情シス

「SLAは?データはどこに?」

現場でAIを使い続けるために、成果をデータで示す
Claudeを使ってステークホルダー別の説明資料を作る

DORA 2025 — AIパラドックス

DORA: Googleが運営する開発生産性の指標。業界では定番

個人レベル ↑

+21%タスク完了数
+98%PRマージ数

組織レベル ↓

-1.5%スループット
-7.2%安定性

個人は速くなったのに、組織はむしろ悪化 → AIパラドックス

AIはチームを修復しない
既にあるものを増幅する

DORA Report 2025

現場で使えるROIデータ

Index.dev 2025

AI活用の生産性効果

  • 開発者の92.6%がAIツール使用
  • タスク完了速度 20〜40% 向上
  • 15〜25時間 の節約
  • 年間 2,000〜5,000ドル 相当のROI

一方で96%の組織がAIの信頼性に懸念 → ガバナンスの出番

PwC 2025

AIスキルのキャリア価値

56% AIスキル保有者の賃金プレミアム

前年は25% → 1年で倍以上
求人成長速度は非AIポジションの3.5倍

AIスキルは組織のためだけじゃなく、自分のキャリア価値を上げる投資でもある

現場で使い続けるための壁

技術だけでは導入は進まない。AIパラドックスの現実を直視し、成果を「組織の言葉」に翻訳するスキルが導入を継続させる

質問があればお気軽にどうぞ

後半パート

01

現場で使い続けるための壁

02

成果報告ダッシュボード

03

全4回の振り返り

実習: 成果報告ダッシュボード

自分たちのデータで報告資料を作る

Step 1

CSVエクスポート

InsightLogの統計 → KPI形式で出力

Step 2

ダッシュボードで可視化

CSVをアップロード → KPIが自動表示

Step 3

画像エクスポート

PNGで保存 → 報告資料に貼付

Step 4

Claudeで説明生成

画像を渡して説明ポイント生成

KPIダッシュボード

ダッシュボード: aidx-kpi-dashboard.arkatom.com

実習: ダッシュボードに表示される4つのKPI

CSVをアップロードすると自動で表示される

AI利用率

全タスクのうちAIを使った割合

最重要

工数削減率

上司への報告で一番響くデータ

平均作業時間

タスクあたりの所要時間

月間削減時間

AIで節約できた時間の合計

画像エクスポート(PNG)→ PowerPoint / メール / 社内Wikiに貼って報告資料にする

ステークホルダー別説明

ダッシュボードの画像をClaudeに見せて、ステークホルダー別の説明ポイントを生成する

開発部長向け

コストとスピード

  • 工数削減率とコストメリット
  • リリースサイクルへの影響
  • 技術的負債の返済に充てられる時間
情シス向け

セキュリティとリスク管理

  • 人間の承認を挟む仕組みが機能
  • Permission ControlとHooksでアクセス制御
  • データ非保持ポリシー

同じデータでも伝え方を変える — これが社内合意形成の技術

実習: プロンプト例 開発部長向け

ダッシュボードの画像をShift+ドラッグ&ドロップでClaudeに渡す

このKPIダッシュボードの画像を分析して、
開発部長に向けた報告資料のポイントを
3つにまとめてください。

フォーカスすべき視点:
- 工数削減率とコストメリット
- リリースサイクルへの影響
- 技術的負債の返済に充てられる時間

開発部長はコストとスピードを気にしている。工数削減率 / リリースサイクル / 技術的負債の3点で、ROIが伝わる

実習: プロンプト例 情シス向け

同じ画像を使って、セキュリティとリスク管理の視点で伝える

同じダッシュボード画像を分析して、
情報システム部門に向けた報告資料のポイントを
3つにまとめてください。

フォーカスすべき視点:
- 人間の承認を挟む仕組みが機能している
- Permission ControlとHooksでアクセス制御
- データ非保持ポリシー

開発部長向けと情シス向け、2つのドキュメントを組み合わせれば
かなり強い稟議書になる

成果報告ダッシュボード

KPIデータをダッシュボードで可視化し、ステークホルダー別に伝え方を変えることで、社内合意形成を実現できる

後半パート

01

現場で使い続けるための壁

02

成果報告ダッシュボード

03

全4回の振り返り

全4回の振り返り

01

基礎

AIの現状を把握
コンテキスト管理で
トークン効率を向上

02

実践

SDDとMCPで
セキュアに社内資産を
活用する方法

03

応用

Git Worktree +
Agent Teamsで
複数タスク同時進行

04

組織展開

多層防御でリスク管理
成果を可視化して
組織導入を成功

基礎から応用へ、個人から組織へ。体系的にスキルを積み上げてきた

AIエージェント時代のエンジニア像

技術

一人でチーム並みの成果

SDD、Worktree、MCPを使いこなす

品質

速度と安全の両立

AIレビューと多層防御

経営

ステークホルダーと対話

成果を数値化して伝える

AIエージェント時代のエンジニアは、単なるコーダーではない
AIという強力な部下を率い、経営層と対話できるプレイング・マネージャー

今日作ったレポートを持って、ぜひ社内のAI活用をリードしてください

学習サイクルは終わらない

計画して、実装して、レビューして、振り返って、改善する
このサイクルを回し続ける限り、皆さんのAIスキルは伸び続けます

研修は今日で終わる。でも、ここからがスタートです

Expert AX - Level1(Claude Code) /  村田 篤郎

01 / 42