GitHub Agentic Workflowsとは?PR・Issue運用をAIに任せる始め方(技術プレビュー)

eyecatch AI関連

結論(導入判断 / 忙しい方向け)

  • Markdownで方針を書くと、AgenticがIssue/PRのトリアージやCI診断・Issue作成を自動で行える
  • Actionsは手順実行、Agenticはゴール指向の運用自動化。役割分担で手戻りを減らせる
  • 技術プレビューは既定で読み取り中心。safe-outputsで書き込みを限定して小さく試す

想定読者: 開発リード/DevOps、PR・Issue運用を改善したいエンジニア

朝イチで「PRレビューお願いします」が積み上がり、SlackはGitHub通知まみれ、Issueは誰もクローズしない──。
本業のコーディングに入る前に、GitHub上の雑務で30分〜1時間溶けている人、多いんじゃないでしょうか。

この記事では、GitHubが技術プレビューとして投下してきた新機能
「Agentic Workflows」 を、現場エンジニア目線でサクッと整理します。

この記事を読むと、次のことが分かります。

  • Agentic Workflowsとは何か、GitHub Actionsとの違いはどこか
  • 日本の開発現場で「どんなGitHub作業」をAIに任せるとラクになりそうか
  • 技術プレビュー中に、小さく安全に試すための具体ステップとMarkdown例

「また新しいバズワードか…」と思っている方も、
自分のリポジトリにそのまま持ち込めそうな“1フロー”のアイデアが見つかるはずです。


  1. GitHubが投下してきた“現場監督AI” Agentic Workflowsとは
    1. あなたのGitHub運用、こんな“もやもや”抱えてません?
  2. Agentic Workflowsの正体:『目的ベースで動くリポジトリ用AIエージェント』
    1. Copilot vs Agentic Workflows:相棒と現場監督の役割分担
    2. GitHub Actionsとの違い:『手順の列挙』から『ゴールと方針の宣言』へ
    3. なぜMarkdownなのか:仕様書=運用ルール=実行対象を1か所に集約
  3. 【5つのリアルシナリオ】どこまでGitHub運用がラクになるか妄想してみた
    1. ケース1:PRレビュアー選定を“なんとなくメンション”から卒業する
    2. ケース2:Issueトリアージを“稟議待ちの山”から“整理されたToDoリスト”へ
    3. ケース3:リリースノート作成を“コミットログ地獄”から“AI下書き+人間チェック”に
    4. ケース4:コード品質&セキュリティチェックを“レビュー前の予習”として自動化
    5. ケース5:READMEやAPIドキュメントを“コード変更に追従させる係”にする
  4. 【手を動かす編】技術プレビュー中に試したい3ステップ+サンプルMarkdown
    1. ステップ0:前提条件と“安全策”をざっくり確認
    2. ステップ1:影響範囲が小さい“単機能ワークフロー”から始める
    3. ステップ2:Markdownで“理想の運用”を書き出す(サンプル付き)
      1. サンプル:PRタイトル整形アシスタント
    4. ステップ3:AIの提案ログを“フィードバック素材”として育てる
  5. メリットとリスクを冷静に整理:『全部AI任せ』が危ない3つの理由
    1. メリット3つ:時間短縮より“判断の前処理”をAIに渡せるのが大きい
    2. リスク3つ:権限・セキュリティ・“誤った自動化”との付き合い方
    3. 日本の開発現場でありがちな“つまずきポイント”
  6. よくある疑問を先回りでまとめてみた【FAQ】
    1. Q1. 追加料金は発生する?Copilot契約がないと使えない?
    2. Q2. AIがどこまで“勝手に”変えてしまうのかが不安です…
    3. Q3. 日本語中心のリポジトリでもちゃんとワークする?
    4. Q4. 個人開発や小規模スタートアップでも入れる価値ある?
  7. まとめ:『GitHub運用をAIに任せる』波はもう来ている──まず1フローだけでも試してみよう
    1. 本記事のポイントざっくりおさらい
    2. 次の一歩:あなたのリポジトリで“どの作業をAIに渡したいか”1つだけ決めてみてほしい
  8. 関連記事

GitHubが投下してきた“現場監督AI” Agentic Workflowsとは

あなたのGitHub運用、こんな“もやもや”抱えてません?

  • どのPRからレビューするべきか毎回悩む
  • ラベル付けのルールが人によって微妙に違う
  • 古いIssueが山のように残ってて、検索してもカオス
  • 「このへんActionsで自動化したいな」と思いつつ、YAMLを書く気力がわかない

自分も完全にこの沼の住人で、「CI落ちたときだけ原因をいい感じにまとめて教えてくれる人」とか
「週一でリポジトリの状況をレポートしてくれる人」がいたら、だいぶ楽なのになぁ…と思ってました。

そんなところにGitHub公式Xが投下してきたのが、今回のGitHub Agentic Workflows

Writing code to automate your repo? Great.
Writing Markdown to do it? Pretty sick.
@github

ざっくり一言でいうと:

「リポジトリの運用ルールをMarkdownで書いておくと、その方針に沿ってAIエージェントがIssueやPRの処理を自動で回してくれる仕組み」

です。

これまでのGitHub Actionsが「イベントごとに手順をYAMLで書くロボット」だとしたら、
Agentic Workflowsは「リポジトリ全体を見渡して雑務をさばいてくれる“現場監督AI”」に近いイメージです。

しかもGitHub公式ブログによると、この現場監督AIにはちゃんとガードレールが付いていて:

  • デフォルトは読み取り専用で動く
  • 書き込み(Issue作成・PR作成など)をさせたいときは safe-outputs に明示的に許可を書く
  • そのうえで、Threat Detectionでプロンプトインジェクションや怪しい変更をチェックする

という、わりとガチめのセキュリティ設計になっています
(参考:GitHub Agentic Workflowsを発表 – リポジトリの自動化を実現)。

ポイントは、「いきなりなんでも勝手に書き換えるAI」ではなくて、
あくまでこちらがMarkdownでルールを書いて、その範囲で働いてもらう、というところです。

発想としては「YAML職人を雇う」のではなく、

Markdownで仕様を書いたら、それを読んで動いてくれる運用担当者を雇う

に近いです。

この記事では、

  • 従来のGitHub Actions・Copilotとの違い
  • 実務でどんな作業を任せるとコスパが良さそうか
  • 技術プレビュー中に、小さく安全に試す手順と注意点

を、現場エンジニア目線でまとめていきます。


Agentic Workflowsの正体:『目的ベースで動くリポジトリ用AIエージェント』

Copilot vs Agentic Workflows:相棒と現場監督の役割分担

AI周りの名前が増えすぎてややこしいので、ざっくりこう覚えると整理しやすいです。

  • GitHub Copilot(IDE側)
  • 手元のエディタでコードを書くのを手伝う「ペアプロ相棒」
  • 1ファイル〜数ファイルのローカルな文脈が得意
  • 「この関数の続き書いて」「このテスト補完して」が守備範囲

  • Agentic Workflows(リポジトリ側)

  • リポジトリ全体を眺めて、Issue / PR / ドキュメントの雑務を進める「現場監督AI」
  • 履歴・Issue・CI結果・ドキュメントなど、広いコンテキストを扱う
  • 「毎朝リポジトリの状態をまとめて」「CI落ちたら原因を調べてIssueにしておいて」が守備範囲

レイヤーでいうとこんな感じです。

  • ローカルのコード作業 → Copilot
  • GitHub上の継続的な運用・メンテ → Agentic Workflows

どっちがどっちを置き換える、というより役割が縦に分かれているイメージですね。

GitHub Actionsとの違い:『手順の列挙』から『ゴールと方針の宣言』へ

「じゃあ普通のGitHub Actionsと何が違うの?」という話。

従来のActionsは、超ざっくりいうと:

on: push
jobs:
  test:
    steps:
      - コードをチェックアウトする
      - Nodeを入れる
      - テストを実行する

みたいに、「どのイベントで」「何を」「どの順番で」実行するかをすべてこちらが書くスタイルでした。
いわば「手続きの列挙」です。

一方でAgentic Workflowsは、公式ブログの世界観を借りると、

  • Issueがトリアージされている
  • CI失敗の原因が説明され、修正案が提案されている
  • ドキュメントがコードの現状を反映している

といった「なっていてほしい状態」を、Markdownで方針として書きます。

例えば、CI失敗時の原因調査〜Issue作成のワークフローは、every Tech Blogさんがこんな感じで書いていました
(参考:GitHub Agentic Workflowsを試しました)。

---
engine: copilot
on:
  workflow_run:
    workflows: ["Tests"]
    types: [completed]
    branches:
      - main
permissions:
  contents: read
  actions: read
safe-outputs:
  create-issue: ~
---

# CI Doctor

Automatically investigate failures in the "Tests" workflow
and create a GitHub Issue with a diagnostic report.

## Instructions

When triggered, check if the "Tests" workflow run that just completed
has a conclusion of `failure`. If it succeeded, do nothing.

For failed runs:

1. Fetch the workflow run logs for the failed "Tests" run
2. Classify the failure type(データレース / タイムアウト / panic / アサーション失敗…)
3. 失敗したテスト名を抽出
4. 関連ログを抜き出して
5. 上記をまとめたIssueを作成(タイトル・本文のフォーマット指定)

上の ------ が「フロントマター」で、

  • いつ動くか(on
  • どの権限で動くか(permissions
  • どんな書き込みだけ許可するか(safe-outputs

をYAMLで決めています。

※権限・ログ・ガバナンスまで含めた「エージェントを増やした後の管理」の全体像は AIエージェント管理とは?2026年版 も参照。また、運用の配管(ログ/ツール連携)起点のリスク例として Claude Codeソースコード51万行流出(.map経由) もあわせてどうぞ。

その下のMarkdownが、「このワークフローのゴールと方針」です。
「ログのどこを見て」「どう分類して」「Issueをどう構成するか」を自然言語で説明します。

整理すると:

  • Actions(YAML)
    → 「go test ./... を実行せよ」みたいなコマンドレベルの指示

  • Agentic Workflows(Markdown)
    → 「テストが落ちたら原因を分類して、再現に必要なログを添えたIssueを作っておいて」みたいなゴールレベルの指示

という役割分担になっています。

GitHub自身も「Continuous AI(C-AI)」というキーワードで、

CI/CDがビルド・テスト・デプロイの自動化なら、
C-AIはリポジトリ運用の“判断を伴う反復作業”の自動化

というポジションづけをしています
(参考:GitHub Agentic Workflowsを発表 – リポジトリの自動化を実現)。

なぜMarkdownなのか:仕様書=運用ルール=実行対象を1か所に集約

「AIにやらせるなら、別にJSONでもYAMLでもよくない?」と思うかもしれませんが、
Markdownにしたことには地味だけど大きいメリットがあります。

  • ドキュメントと運用ルールと“実行対象”が同じファイルになる
  • .github/workflows/daily-repo-status.md の1ファイルに
    • フロントマター:トリガーや権限
    • 本文:リポジトリで何をレポートしてほしいか、どういう観点で見るか
      がまとまる。
  • Serverworksさんのブログでも、日次レポートのワークフローに「レポートに含める内容」「文体」までMarkdownで書いていました
    (参考:GitHub Agentic Workflows を試してみた)。

  • Pull Requestでポリシー変更をレビューできる

  • 「Issueのトリアージ方針を変えたい」
  • 「日次レポートにセキュリティアラートも含めたい」
    → そのMarkdownを修正してPRを出すだけ。
    いつものコードレビューと同じフローに乗せられます。

  • “口約束の運用ルール”をチームで共有できる

  • 「バグIssueにはこのテンプレ」「ラベルはだいたいこんな感じで」みたいな暗黙ルールを、
    Agentic Workflowsに任せるには文章化せざるを得ない
  • 結果として、「運用仕様書がそのまま実行コードでもある」状態に近づけます。

  • 非エンジニアもギリ読める

  • 上がYAML、下が日本語の説明や箇条書き、という構成なら、PdMやCSメンバーも追いやすいです。

GitHubブログも、

「リポジトリでの繰り返し作業が言葉で説明できるなら、それはAgentic Workflowに向いているかもしれない」

と書いていて、「口頭で説明できる仕事はMarkdownに落とせる」というメンタルモデルがそのまま実装になっています
(参考:GitHub Agentic Workflowsを発表 – リポジトリの自動化を実現)。


【5つのリアルシナリオ】どこまでGitHub運用がラクになるか妄想してみた

ここからは、Agentic Workflowsが実際の現場でどう効きそうかをイメージしやすくするために、
日本の開発チームでありがちな5つのシナリオで妄想してみます。

すべてフィクションですが、「あーこれ、うちもあるな…」くらいの距離感に寄せています。

ケース1:PRレビュアー選定を“なんとなくメンション”から卒業する

Before:

中規模チーム(5〜10人)だと、PRを出すたびにこうなりがちです。

  • 「この変更、誰にレビュー頼むのが正解だっけ…?」と毎回悩む
  • とりあえず詳しそうな人にメンションしてみる
  • 実は担当じゃなくて「ごめん、これ◯◯さんの方が詳しいかも」とリダイレクト
  • その間にPRが1〜2日放置

1本のPRごとに数分ずつ「誰に回すか」で脳のリソースを持っていかれるの、地味にしんどいです。

After(Agentic Workflowsあり):

Markdownで、例えばこんなポリシーを書いておきます(イメージです)。

# PR Reviewer Assignment Policy

このリポジトリでは、PRのレビュアーを以下の方針で自動選定する。

## 方針

1. 変更されたファイルに対して、過去6ヶ月で最も多くコミットしている開発者を候補にする
2. CODEOWNERS が設定されているパスについては、CODEOWNERSを最優先する
3. 可能であれば、レビュアーは2人以上にする
   - メイン担当者1人 + サブレビュアー1人
4. バグ修正系(ラベル `bug`)は優先度を高くし、最近レビュー負荷が低い人を優先する
5. ドキュメントのみ変更のPRには、ドキュメント担当者を優先的にアサインする

フロントマターでは on: pull_request でトリガーし、safe-outputs で「レビュア追加」だけ許可します。

ワークフローは:

  1. 新しいPRが作成される
  2. Agentic Workflowsが差分・履歴・CODEOWNERSを参照
  3. ポリシーに沿ってレビュア候補を決定
  4. 自動でReviewersにアサイン、あるいはコメントで提案

ざっくり効果:

  • PR1本あたり「誰に頼むか」検討:1〜3分
  • 1日5本PR × チーム数人 → 毎日30分〜1時間分の認知負荷が消えるイメージ
  • 「どの分野は誰が詳しいか」がMarkdownに明文化される副産物もあり

ケース2:Issueトリアージを“稟議待ちの山”から“整理されたToDoリスト”へ

Before:

スタートアップあるあるの光景です。

  • 未分類のIssueが100件以上
  • ラベルが半分くらい付いていない
  • バグなのか要望なのかアイデアなのか分からない
  • スプリント前に「まずIssue整理から…」で30分消える

テンプレもあるけど、守られないことも多い。

After:

Markdownポリシー例:

# Issue Triage Policy

新しく作成された Issue に対して、以下を自動で行う。

1. タイトルと本文から、以下の種類を判定し、ラベルを付与する:
   - `bug`
   - `feature`
   - `question`
   - `discussion`
2. 既存の Issue と内容が重複していないか確認し、重複が疑われる場合は候補をコメントで提示する。
3. 必須テンプレートが足りない場合は、何が足りないかを日本語でコメントし、追記を依頼する。
4. プロダクト領域(課金・認証・UIなど)を推定し、対応するラベルを付与する。
5. 「重大度(High/Medium/Low)」を仮判定し、本文先頭に `[High]` などの形で追記する(人間は後で修正可)。

トリガーは on: issues: [opened]
safe-outputs では「ラベル付け」「コメント投稿」だけ許可。

効果イメージ:

  • 新規Issue1件のトリアージに3〜5分かかるとして
  • 月50件なら2〜4時間/月が“分類作業”に消えている計算
  • Agentic Workflowsで第一次トリアージまで任せて、人間は確認と微調整だけに集中

ケース3:リリースノート作成を“コミットログ地獄”から“AI下書き+人間チェック”に

Before:

月1リリースのSaaSを想像してください。

  • 「今回のリリース内容まとめておいてください」と頼まれる
  • 今月マージされたPRをひたすら漁る
  • コミットメッセージをユーザー向けの文章に翻訳
  • 「これはユーザー向け不要」「これは大事なので強調」などで悩む

普通に1〜2時間くらい溶けます

After:

Markdownポリシー例:

# Monthly Release Notes Draft

毎月1回、`main` ブランチに対して以下を行う。

1. 前回のリリースタグから現在までにマージされた PR を取得する。
2. 各 PR を以下のカテゴリに分類する:
   - Breaking Changes
   - New Features
   - Improvements
   - Bug Fixes
   - Internal / Refactoring
3. ユーザー向けのリリースノート用に、各 PR の内容を1〜2文の日本語で要約する。
4. 以下のような Markdown 構造でドラフトを生成する:

# リリースノート YYYY-MM-DD

## 🚨 Breaking Changes
- ...

## ✨ 新機能
- ...

## 🛠 改善
- ...

## 🐛 バグ修正
- ...


5. 生成した本文を `release-notes` ラベル付きの Issue として作成する。
6. 元の PR へのリンクも付ける。

トリガーは schedule(月1)か workflow_dispatch(手動)。
safe-outputscreate-issue だけ。

時間削減イメージ:

  • これまで:1〜2時間/リリース
  • 導入後:レビュー&微調整だけなら30分以内に収まる可能性大

リリースノートの心理的ハードルがかなり下がります。

ケース4:コード品質&セキュリティチェックを“レビュー前の予習”として自動化

Before:

レビューあるあるです。

  • バグりそうな匂いはするけど、Diffを全部追う時間はない
  • 過去バグパターンに似ているが、どこまでチェックすべきか悩む
  • セキュリティ的に怪しい処理を脳内チェックリストで頑張っている

LintやSASTは入っていても、プロジェクト固有の“やらかしパターン”までは拾えません。

After:

「レビュー前の予習係」としてのMarkdown例:

# Pre-Review Code Quality & Security Assistant

Pull Request が作成されたとき、以下を自動で行う。

1. 変更されたファイルと Diff を解析し、以下の観点でコメントを提案する:
   - 過去にこのリポジトリで発生したバグパターンに類似していないか
   - 明らかに不要な複雑性・重複がないか
   - セキュリティ関連の変更にリスクがないか
2. 必要に応じて、以下のようなコメントを Pull Request に追加する:
   - 「この処理は`XXX`で発生したバグと似ているため、テストケースの追加を検討してください(リンク: #123)。」
   - 「同様のロジックが `foo/bar.ts` に存在します。共通化できないか確認してください。」
   - 「アクセストークンをログに出力していないか確認してください。」
3. Lint など既存CI結果も参照し、重複する指摘は行わない。

safe-outputs ではコメント追加だけ許可。
PRを勝手に直させず、「ここ怪しいかもよ」と印をつけるところまでに留めます。

レビューアは、Lint結果+AIコメント+自分の目視を合わせてチェックできるようになります。

ケース5:READMEやAPIドキュメントを“コード変更に追従させる係”にする

Before:

かなりの頻度で見るやつです。

  • API挙動を変えたのに、ドキュメント更新が後ろ倒し
  • READMEのセットアップ手順が古いまま
  • 内部ドキュメント(Notion / Confluence)が更新されない

「大事なのは分かってるけど、真っ先に後回しにされるタスクNo.1」です。

After:

「ドキュメント番長」としてのMarkdown例:

# Documentation Sync Assistant

次のようなコード変更があった場合に、自動でドキュメント更新用の Pull Request を作成する。

対象となる変更:
- `api/` 配下のエンドポイント追加・変更・削除
- `config/` 配下の設定項目追加・変更・削除
- CLI コマンド定義ファイルのオプション変更

やること:

1. 変更前後のコードを比較し、影響がありそうなドキュメントを特定する。
2. 現時点のドキュメント内容を読み、コードと不整合になっている箇所を検出する。
3. 必要に応じて修正案を作る:
   - 新しいエンドポイントの説明を追記
   - 廃止オプションを「Deprecated」セクションへ移動
   - デフォルト値の変更を反映
4. ドキュメントのみを変更した Pull Request を作成し、タイトルに `[docs-sync]` を付ける。
5. PR本文で、どのコード変更に基づく修正かをリンク付きで説明する。

safe-outputscreate-pull-request を許可し、Docsだけを触るPRを自動で作ってもらいます。

日本の現場だと特に効きそうなのは:

  • 「仕様変更→影響範囲が多すぎてドキュメント更新が追いつかない」
  • 「レビューで『ドキュメントがまだだからリリース保留』と言われる」
  • 「いつも1バージョン前のAPI仕様を渡してしまう」

あたりの問題です。
「AIが先に下書きしてくれる」だけで、かなり心理的ハードルが下がると思います。


【手を動かす編】技術プレビュー中に試したい3ステップ+サンプルMarkdown

「良さそうなのは分かったけど、どこから触ればいいの?」という人向けに、
技術プレビュー中でも比較的安全に試せそうな3ステップサンプルMarkdownをまとめます。

ステップ0:前提条件と“安全策”をざっくり確認

まずは「そもそも動かせるか」と「どこまでやったら危ないか」を押さえます。

前提条件(おおよそ):

  • GitHub Actionsが有効なリポジトリ
  • 自分にそのリポジトリのWrite権限以上がある
  • ローカルにGitHub CLI (gh) が入っている
  • gh extension install github/gh-aw でAgentic Workflows拡張を追加
  • Copilotや他のAIエンジン用トークンが用意できること(Copilot前提が多め)

セットアップ手順は、Serverworksさんの記事がかなり丁寧です:
GitHub Agentic Workflows を試してみた

安全策として意識しておきたいこと:

  • テスト用リポジトリ or 専用ブランチで試す
  • 最初は「読み取り+コメント」レベルに抑える
  • safe-outputs でいきなり create-pull-requestcreate-issue を許可しない
  • AI APIコストも軽く意識
  • Zennの検証では1回の実行で $1.2〜1.5 かかった例もあります
    (参考:GitHub Agentic Workflows で遊ぶ
  • まずは短時間で終わる小さなワークフローから

ステップ1:影響範囲が小さい“単機能ワークフロー”から始める

Agentic Workflowsは設計思想的に「なんでもできそう」に見えますが、
最初から“なんでも”任せると高確率でカオスになります。

最初の一手に向いているもの:

  • PRタイトルのフォーマットチェック係
  • Issueテンプレ遵守チェッカー
  • CI失敗時の「概要コメント」だけ書くボット
  • 日次レポートをドラフトIssueとして作るだけのワークフロー

このレベルなら、

  • 多少的外れでも「ちょっとウザいボット」で済む
  • コードやIssueが勝手に増殖したりしない
  • チームにも説明しやすい(「まずは通知だけ出すようにしました」)

ので、心理的にも実運用的にも安全です。

ステップ2:Markdownで“理想の運用”を書き出す(サンプル付き)

次に、実際にMarkdownでポリシーを書くフェーズです。

ポイントは、

「コードどうこうより先に、“このリポジトリでどう振る舞ってほしいか”を日本語で書く」

と割り切ること。

サンプル:PRタイトル整形アシスタント

.github/workflows/pr-title-helper.md のイメージです。

---
description: |
  Pull Request のタイトルをプロジェクトのルールに合わせてチェックし、
  必要に応じて修正案を提案するアシスタント。

on:
  pull_request:
    types: [opened, edited, synchronize]

permissions:
  pull-requests: write
  contents: read

network: defaults

tools:
  github: {}

safe-outputs:
  # コメント追加だけ許可する。タイトルの書き換えはしない。
  add-issue-comment: 
    max: 3

engine: copilot
---

# PR Title Helper

このリポジトリでは、Pull Request のタイトルを以下のルールに従って付けたい:

- 先頭にカテゴリのタグを付ける:
  - `[feature]` 新機能
  - `[fix]` バグ修正
  - `[chore]` 雑多な作業(CI修正、依存パッケージアップデートなど)
  - `[docs]` ドキュメントのみの変更
- 英語でも日本語でもよいが、「何をした PR か」が 1 行で分かるように書く。
- 「WIP」「test」などの一時的なタイトルは避ける。

## やってほしいこと

1. 対象の Pull Request 情報(タイトル・差分・ラベルなど)を取得する。
2. 現在のタイトルが上記ルールに従っているかチェックする。
3. 問題がなければ何もしない(コメントもしない)。
4. 問題がある場合は、以下の内容のコメントを 1 件だけ追加する:

   - どのルールに違反しているか(例:「カテゴリタグが付いていません」)。
   - 具体的な修正案のタイトルを 1〜2 個提案する。
   - 提案は、GitHub のタイトル欄にそのままコピペして使える形式にする。
   - コメントは日本語で書く。

5. 既に同じ内容のコメントがある場合は、重複してコメントしない。

ポイントは:

  • フロントマターでは「いつ動くか」「どんな権限で」「何をしていいか」だけ書く
  • 本文では、人間に説明するつもりで運用ルールを書く
  • 「絵文字は使わない」「同じコメントは二重に書かない」など、細かいニュアンスも自然言語でOK

これを gh aw compile でコンパイルすると、.lock.yml が生成されてActionsとして動くようになります。
gh aw compile まわりは、Zennの記事がまとまっています:
GitHub Agentic Workflowsについて詳細をまとめつつ使ってみた

ステップ3:AIの提案ログを“フィードバック素材”として育てる

ワークフローを動かし始めたら、最初のうちは必ず全提案を人間がチェックします。

  • このコメントは助かる
  • この提案タイトルはちょっとズレてる
  • この指摘は要らない

という感想を、そのままMarkdownポリシーにフィードバックしていきます。

例:

  • 「テストだけのPRにはコメント不要」
    → 「テストファイルのみの変更なら何もしない」と追記

  • [chore][fix] を毎回間違える」
    → カテゴリごとの具体例を増やす

  • 「絵文字が多すぎる」
    → Styleセクションを作って「絵文字は使わない/最大1個まで」と書く

GitHub公式ブログも、「完璧なプロンプトより、“良い出力とは何か”を言語化するのが大事」と言っています
(参考:GitHub Agentic Workflowsを発表 – リポジトリの自動化を実現)。

Markdownを少しずつ育てていくサイクルこそが、Agentic Workflowsの本領発揮ポイントです。


メリットとリスクを冷静に整理:『全部AI任せ』が危ない3つの理由

ここまで割とワクワク寄りで見てきたので、一旦クールダウンして整理します。

メリット3つ:時間短縮より“判断の前処理”をAIに渡せるのが大きい

  1. 定型作業の自動化で素直に時間削減

  2. Issueラベル付け

  3. CI失敗時のログ収集&要約
  4. 日次・週次レポートのドラフト
  5. リリースノートたたき台

「やれば価値はあるけど、毎回やるのはつらい」系を丸ごとカバーしやすいです。

  1. 暗黙知だった運用ルールをMarkdownで共有できる

  2. 「バグIssueには再現手順必須」

  3. bug/feature/chore ラベルの使い分け」
  4. 「この種類の変更は◯◯さんにレビュー」

こういった“口頭ルール”をAIに任せるために、嫌でも文章化せざるを得ない
結果、運用ルールがチーム内で共有されます。

  1. 「どこから手を付けるか」「誰に回すか」という“判断の前処理”をAIに任せられる

  2. PRレビューの優先度付け

  3. Issueトリアージの粗いスクリーニング
  4. リポジトリのヘルスチェック(放置PRや古いブランチ一覧)

最終判断は人間ですが、候補のリストアップまでやってもらえるだけでかなり楽になります。

リスク3つ:権限・セキュリティ・“誤った自動化”との付き合い方

  1. 権限の渡しすぎ問題

  2. create-issue を無制限に許可してIssueが乱立

  3. create-pull-request で微妙な自動PRが量産
  4. 最悪カスタムActions経由で git push まで許してしまう

対策としては、段階的に:

  • まずは「コメント・レポートだけ」
  • 次に「PR作成まではOK、マージは人間」
  • 自動マージは慎重に別Actions側で制御

  • セキュリティ&情報漏洩

  • 社外秘ドキュメントを含むモノレポにどこまで読ませるか

  • 機密性の高い設定ファイルをコンテキストに含めて良いか
  • 会社の規程的に、何を外部AIに渡してよいか

まずは公開リポや検証用リポでだけ使う、機密度の高いプロジェクトは社内ルール整備後に検証、という順番が無難です。

  1. “誤った自動化”でノイズが増える問題

  2. レポート系ワークフローが毎日どうでもいいIssueを立て続ける

  3. 精度の低い自動PRが大量に飛んでレビュー工数が逆に増える

ここで大事なのは、

「AIがポンコツだからダメ」ではなく
「ポリシー(Markdown)と権限設計がまだ甘い」

と捉えて、すぐに止められる・頻度を落とせる設計にしておくことです。

具体的には:

  • safe-outputs.create-issue.max: 1 のように上限を必ず付与
  • Draft PRや [ai] プレフィックスを付けてAI生成と一目で分かるようにする
  • ノイズが多ければすぐ無効化 or トリガーを間引く

日本の開発現場でありがちな“つまずきポイント”

  • 日本語中心のIssue/PRとの相性
  • ポリシー本文は日本語でOK
  • ラベル名・出力スキーマなどの識別子は公式どおり英語に揃えるのが安全
  • コメントは「日本語で、です/ます調で」と明示する

  • 承認フローが重い文化との兼ね合い

  • 最初は「コメントだけAIに書かせる」と説明すると通りやすい
  • 人間のレビュー&マージが必須であることをルール化する

  • Word/Excel文化とMarkdown文化のギャップ

  • まずはエンジニアチーム内だけでMarkdownポリシーを回す
  • 当面は「Markdownの内容を月1でConfluenceにコピペ」などのブリッジ運用もアリ

よくある疑問を先回りでまとめてみた【FAQ】

Q1. 追加料金は発生する?Copilot契約がないと使えない?

A. 仕組みそのものはGitHubの機能ですが、裏で動くAIエンジンの課金モデルに乗ります。

  • Agentic Workflows自体は「GitHub Actions+gh-aw拡張」で動く
  • Copilotエンジンを使う場合はCopilot契約が必要
  • ClaudeやOpenAIを使う場合はそれぞれのAPIキーが必要
  • 実行コストはリポジトリ規模で変わり、Zenn記事では1回 $1.28 という例も(参考:GitHub Agentic Workflows で遊ぶ

正式リリース時に課金モデルが変わる可能性もあるので、企業導入では最新ドキュメントと営業確認が安心です。

Q2. AIがどこまで“勝手に”変えてしまうのかが不安です…

A. デフォルトは読み取り専用で、書き込みは safe-outputs に書いたものだけ。まずは「コメントだけ」がおすすめです。

介入レベルはざっくり3段階です。

  • コメント/レポートだけ(超安全)
  • PRを“作るだけ”(中リスク、マージは人間)
  • 自動マージまで含める(現時点ではあまり推奨されない)

最初の一歩は、PRタイトルチェックやテンプレ不足コメントなど、コメント専用ワークフローが無難です。

Q3. 日本語中心のリポジトリでもちゃんとワークする?

A. かなり普通に動きます。ポリシーは日本語でOKですが、識別子は英語に寄せるとトラブルが減ります。

  • ポリシー本文は日本語で書いてOK
  • ラベル名・ツール名・JSONキー名などは公式の英語表記どおりに
  • コメントは「日本語で書く」と明示

「日本語+技術用語だけ英語」くらいの混在なら、今どきのモデルは余裕で対応できます。

Q4. 個人開発や小規模スタートアップでも入れる価値ある?

A. むしろ小さいチームほど、“AIに投げたい雑務”が1人に集中しがちなので相性が良いです。

  • 個人開発
  • Issue整理、リリースノートドラフト、README改善提案などが向く
  • 小規模スタートアップ
  • PRレビューの初期スクリーニング、バグトリアージ、週次レポートなど
  • 大企業
  • 特定プロジェクトでのPoCとして限定用途から始め、監査やセキュリティルールとセットで検証

「GitHub上のアシスタントを1人雇う」くらいの感覚がちょうどいいと思います。


まとめ:『GitHub運用をAIに任せる』波はもう来ている──まず1フローだけでも試してみよう

本記事のポイントざっくりおさらい

  • Agentic Workflowsは「リポジトリ運用の現場監督AI」
  • Copilotがエディタでコードを書く相棒なら、こちらはGitHub上でIssue / PR / Docsをさばく係

  • GitHub Actions(YAML)は「手順を書く」、Agentic Workflows(Markdown)は「ゴールと方針を書く」

  • 「テストをこう回す」ではなく、「CIが落ちたら理由を整理してIssueにしてほしい」と書く世界観

  • Markdownにしたことで、仕様書=運用ルール=実行対象が1か所に集約

  • .md 1枚に「このワークフローは何を、どういうポリシーでやるか」が全部載る
  • Pull Requestで運用ルールの変更をレビューできる

  • 効きそうな領域は「やればいいのは分かってるけど、毎回やるのつらい雑務」

  • PRレビュアー選定、Issueトリアージ、リリースノート、CI失敗の原因調査、Docs更新など
  • 人間の最終判断は残しつつ、その“前処理”をAIに渡すのがちょうど良い

  • 導入は「小さなワークフロー+提案モード」からが安全

  • まずはコメント・レポートだけ → 次にドラフトPR → その先は慎重に
  • ログを見ながらMarkdownポリシーを少しずつ育てる

  • 日本の現場でも、日本語混じりで十分戦えそう

  • ポリシー本文は日本語でOK、識別子は英語に揃える
  • 承認フローが重い環境では、まず「コメントだけAIに書かせる」運用から

「GitHub運用をAIに任せる」と聞くと未来感がありますが、
実際には “面倒な前処理だけAIにやらせて、最後の判断は人間が握る” という、かなり現実的な落とし所に収まりそうです。

次の一歩:あなたのリポジトリで“どの作業をAIに渡したいか”1つだけ決めてみてほしい

最後に、読んでくれた方への小さな宿題です。

あなたのリポジトリで、「一番やりたくないけど、放置するとつらいGitHub作業」はどれですか?

例えば:

  • 毎回PRタイトルが「fix」とか「update」になっている
  • CIが落ちるたびに、ログのどこまで読めばいいか迷う
  • 月末のリリースノートのために、コミットログ地獄を旅している
  • Issueが溜まりすぎて、スプリント前に30分トリアージしている

この中から、「AIにドラフトを作ってもらえたらだいぶ楽になりそう」なものを1つだけ選んでみてください。

やることはシンプルです。

  • テスト用リポジトリ or ブランチを用意する
  • その“やりたくない作業”をMarkdownで運用ルールとして書き出してみる
  • gh aw compile して、小さく動かしてみる(最初はコメントだけ)

これだけでも、「ウチでも使えそう」「ここは人間の方が早い」など、いろいろ見えてくるはずです。

「自分ならここをAgentic Workflowsにやらせたい」というネタがあれば、
ぜひSNSやコメントで共有してみてください。別記事で実験してみるかもしれません。

技術プレビューの今は、ちょっと雑でもいいから触ってみた人が一番学びの多いフェーズなので、
ぜひ「まず1フローだけ」から試してみてください。


参考記事: X:github - Writing code to automate your repo? Great. Writing Markdown to do it? Pretty sick. GitHub Agentic Workflows: now in technical preview.


関連記事

コメント

タイトルとURLをコピーしました