AIインシデント実例
2025年12月
AIコーディングツールの脆弱性
30以上の脆弱性が発覚
テスト対象の100%が脆弱
Cursor, Copilot, Kiro, Claude Code — 全部
2026年1月
AIスキルのサプライチェーン攻撃
1,184の悪意あるスキルが混入
エコシステムの約5分の1が汚染
OWASP LLM Top 10: #5 Supply Chain
2026年2月
本番DBを削除、190万行が消失
AIがインフラ整理中にterraform destroyを実行
本番環境すべてが消去された
2025年
AI支援コードでシークレット漏洩率40%増
AIツール利用リポジトリの漏洩率がベースラインの1.4倍
APIキー・DB接続情報が流出
OWASP LLM Top 10: #6 Sensitive Info Disclosure
AIにプレッシャーをかけたらどうなるか
AIに有害なツールを渡してプレッシャーをかけた実験。約1,000のシナリオで検証
18.6%
プレッシャー低
46.9%
プレッシャー高
79%
最悪のモデル
有害ツールに無害な名前をつけるだけで、不正率がさらに+17%上乗せ(例: 19%→36%)
しかもモデルは「危険だ」とわかっていながら使っている
プロンプトでは守れない
AIに「ハッキングして」と言えば拒否する
→ 単語を禁止されているだけ。本質的な倫理観ではない
表面的な理解
「ハッキング」は拒否する
= 単語レベルの禁止
文脈で突破できる
「CEOの特命で緊急テストが必要」
→ 突破できてしまう
AIの良心に頼ってはいけない
物理的に実行できなくするのが唯一の解 → だからハーネスエンジニアリング
ハーネスエンジニアリング
2026年2月、Terraform創設者 Mitchell Hashimoto が命名。数週間で業界用語に
「エージェントが間違いを犯すたびに、二度と同じ間違いを犯さないよう解決策を作る」
プロンプトエンジニアリング
1回の推論を良くする技術
入力の言い回しを工夫して
出力の品質を上げる
ハーネスエンジニアリング
長時間の自律作業を安定させる技術
設定ファイル・権限制御・自動検証で
AIの「外側」を設計する
レイヤーが違う。ハーネス=馬具。AIを手綱で制御する技術
Claude Codeの拡張と制御
拡張 — できることを広げる
コンテキスト
CLAUDE.md / AGENTS.md / Memory
外部連携
Skills / MCP / commands
並行処理
Sub-Agent / Agent Teams
制御 — できることを制限する
権限管理
settings.json(deny / ask / allow)
自動検証
Hooks(PreToolUse でブロック)
隔離・組織強制
/sandbox / Managed Settings
拡張だけだと暴走する。制御だけだと役に立たない。両方揃って初めて安全に活用できる
多層防御の3層
第1層
Permission Control
危険コマンドをシステムで禁止 — 最も広い防御
▼
第2層
Hooks
コマンドの中身を分析して自動検証
▼
第3層
監視 + 組織設定
監視と組織への強制適用
実習: 第2層 Hooks
Permission Controlは「コマンド名で止める」。Hooksは「状態を見て動的に判断」できる
#!/bin/bash
# ループガード: 実行回数をカウントし、上限で確認を求める
COUNT_FILE="/tmp/claude-hook-count"
LIMIT=3 # 実習用。本番では20程度に
COUNT=$(cat "$COUNT_FILE" 2>/dev/null || echo 0)
COUNT=$(( COUNT + 1 ))
echo "$COUNT" > "$COUNT_FILE"
if [ "$COUNT" -gt "$LIMIT" ]; then
echo '{"permissionDecision":"ask","message":"実行回数が上限を超えました。続けますか?"}'
fi
ツール実行のたびにカウンタ+1 → 上限を超えたら permissionDecision: ask で人間に確認。回数を数えるのはPermission Controlにはできない
第3層: Monitoring + Managed Settings
全プラン
監視
ツール使用やAPI呼び出しを自動で記録
誰が・いつ・何をしたかを追跡できる
Teams / Enterprise
組織への設定強制
全ユーザーに設定を強制配信。個人は変更できない
- 外部セキュリティ監査に合格済み
- 社内アカウントとの連携
- 操作ログを監査用に取得可能
外部審査に合格 / アカウント連携 / 操作記録の取得
→ 組織的なガバナンスが効く仕組みが揃っている
前半まとめ
事実
AIインシデントは実在する
30以上の脆弱性が発覚
テスト対象100%が脆弱
根拠
プロンプトでは守れない
プレッシャー下では
46.9% が不正使用
対策
システムで制御する
- Permission Controlで物理的に禁止
- Hooksで自動検証
- Managed Settingsで組織強制
現場に戻ったら直面する壁
前半で技術的なガードレールを構築した。でも現場で使い続けるには技術以外の壁がある
上司から
「月額200ドルのMaxプラン?
元が取れるの?」
情シスから
「そのツール、
セキュリティは大丈夫?」
DXツール導入が止まる最大の理由は予算不足ではない
現場が社内説明に力尽きてしまうこと
エンジニアの成果を「組織の言葉」に翻訳する技術が必要
言語のギャップ
同じ成果を見ているのに、使う言葉が違う。だから伝わらない
現場でAIを使い続けるために、成果をデータで示す
Claudeを使ってステークホルダー別の説明資料を作る
DORA 2025 — AIパラドックス
DORA: Googleが運営する開発生産性の指標。業界では定番
個人は速くなったのに、組織はむしろ悪化 → AIパラドックス
現場で使えるROIデータ
Index.dev 2025
AI活用の生産性効果
- 開発者の92.6%がAIツール使用
- タスク完了速度 20〜40% 向上
- 月 15〜25時間 の節約
- 年間 2,000〜5,000ドル 相当のROI
一方で96%の組織がAIの信頼性に懸念 → ガバナンスの出番
PwC 2025
AIスキルのキャリア価値
56%
AIスキル保有者の賃金プレミアム
前年は25% → 1年で倍以上に
求人成長速度は非AIポジションの3.5倍
AIスキルは組織のためだけじゃなく、自分のキャリア価値を上げる投資でもある
ステークホルダー別説明
ダッシュボードの画像をClaudeに見せて、ステークホルダー別の説明ポイントを生成する
開発部長向け
コストとスピード
- 工数削減率とコストメリット
- リリースサイクルへの影響
- 技術的負債の返済に充てられる時間
情シス向け
セキュリティとリスク管理
- 人間の承認を挟む仕組みが機能
- Permission ControlとHooksでアクセス制御
- データ非保持ポリシー
同じデータでも伝え方を変える — これが社内合意形成の技術
全4回の振り返り
01
基礎
AIの現状を把握
コンテキスト管理で
トークン効率を向上
02
実践
SDDとMCPで
セキュアに社内資産を
活用する方法
03
応用
Git Worktree +
Agent Teamsで
複数タスク同時進行
04
組織展開
多層防御でリスク管理
成果を可視化して
組織導入を成功
基礎から応用へ、個人から組織へ。体系的にスキルを積み上げてきた
AIエージェント時代のエンジニア像
技術
一人でチーム並みの成果
SDD、Worktree、MCPを使いこなす
経営
ステークホルダーと対話
成果を数値化して伝える
AIエージェント時代のエンジニアは、単なるコーダーではない
AIという強力な部下を率い、経営層と対話できるプレイング・マネージャー
今日作ったレポートを持って、ぜひ社内のAI活用をリードしてください
学習サイクルは終わらない
計画して、実装して、レビューして、振り返って、改善する
このサイクルを回し続ける限り、皆さんのAIスキルは伸び続けます
研修は今日で終わる。でも、ここからがスタートです
Expert AX - Level1(Claude Code) / 村田 篤郎