この記事のポイント
- AI生成コードの危険性は、モデルの善悪ではなく、機能要求だけで通すと insecure なテンプレートが残りやすいことにあります。
- 危ないのは SQL injection などの古典的脆弱性だけでなく、認証なし route、secret の client-side 埋め込み、debug 設定の残置、緩い CORS のような default です。
- コードレビューだけでなく、公開される login page、staging、preview URL、Swagger/OpenAPI まで確認して初めて release gate になります。
まず無料で確認する
無料でASM診断を開始
AI生成コード 脆弱性で触れている論点は、自社ドメインを実際に診断すると優先順位が掴みやすくなります。まずは外部公開資産を無料で可視化してください。
AI生成コードの脆弱性とは何か
AI生成コードの問題は『全部が危険』ではなく、動作優先の枝の中に危険な実装パターンが静かに混ざることです。
生成コードは『動くこと』を優先しやすく、安全条件を自動では補完しません
AI生成コードの脆弱性を考えるとき、最初に押さえるべきなのは、モデルが悪意を持って insecure なコードを書くわけではないという点です。問題は、開発側が「画面を出す」「API をつなぐ」「フォームを送れるようにする」といった機能要求だけを渡したとき、モデルは動くことを優先した実装を返しやすいことです。認証、認可、入力検証、rate limit、ログの sanitization、公開禁止の route まで毎回明示していなければ、安全条件は抜けやすくなります。
Veracode 2025 GenAI Code Security Reportは、この感覚をかなり明確に裏付けています。report では security-specific guidance を与えない条件で生成コードを評価し、secure code になったのは全体の 55% にとどまりました。つまり裏を返すと、45% では既知の security flaw が残ったことになります。これは「AI で書いたら必ず危険」という意味ではなく、機能面の精度ほど security quality が自動で上がらないことを示しています。
既存の Vibe Coding のセキュリティ でも触れたとおり、危険なのは AI を使うこと自体ではなく、速く書けるので review と公開前確認が薄くなることです。AI生成コードの記事では、そこからさらに一歩進めて、何が混ざりやすいのか、なぜ人間レビューが必要なのか を主役にします。
古い脆弱性が『新しい開発速度』の中で再生産されます
AI生成コードで入りやすい flaw は、未知のゼロデイよりも、実は古典的な実装ミスであることが多いです。prepared statement を使わない入力処理、認証なし endpoint、client-side に残る secret、緩い CORS、debug route の残置、危険な default 設定などは、いずれも昔から知られています。問題は、AI がそれらを「便利で手早い実装」として組み合わせやすく、人間も diff が大量だと見落としやすいことです。
そのため、AI生成コードの脆弱性は「AI特有の新型攻撃」として理解するより、既知の insecure template が高速に量産される問題として理解した方が実務では役立ちます。この切り口にすると、生成AIの利用是非ではなく、review、gate、公開後点検へ落とし込みやすくなります。
どんな危険な実装が混ざりやすいのか
| 危険パターン | なぜ混ざりやすいか | 公開後の見え方 |
|---|---|---|
| 認証なし API / admin route | 動作確認を優先し、後で認証を足す前提で実装しやすいためです。 | login page や docs がそのまま外へ出ます。 |
| client-side の API key / secret | とりあえず接続できる構成を出しやすいためです。 | browser から key や内部 URL が見えます。 |
| 緩い CORS / debug 設定 | 開発中の確認を楽にする default が残りやすいためです。 | 本番でも verbose な応答や広すぎる許可が残ります。 |
| 入力検証不足 | 仕様が曖昧だと happy path 中心のコードを生成しやすいためです。 | 例外系や悪用入力で脆弱性が露出します。 |
| 危険な依存関係追加 | 便利な package を即座に提案し、来歴確認が後回しになるためです。 | build / CI / 実行環境まで supply chain risk が広がります。 |
『動けばよい仮実装』が本番まで残るのが危険です
AI生成コードのレビューで一番危ないのは、明らかな exploit よりも「開発中だけのつもりだった仮実装」が残ることです。たとえば一時的に認証を外した admin route、beta 用の host、test 向け CORS、社内確認用の Swagger/OpenAPI、内部 API の直叩きなどは、動作確認では便利です。しかし release 直前に消し込まれないと、そのまま公開面へ残ります。
既存の フロントエンドのAPIキー露出 や クライアントシークレット漏えい は、こうした「まず動かす」で混ざりやすい個別論点です。本記事ではそれらを単独論ではなく、AI生成コード全般で起きやすいパターンとして束ねています。
安全そうに見えるコードでも trust boundary が崩れていることがあります
AI生成コードは、見た目の整ったフレームワーク構成や lint の通るコードを返せます。そのため、読みやすいから安全だという錯覚が起きやすくなります。ですが本当に重要なのは、どこで認証するのか、どの値を browser に出してよいのか、どの service account がどこまで届くのかという trust boundary です。ここが曖昧なままだと、見た目がきれいでも危険な実装になります。
とくに AI は、library や framework の定番例に寄せる傾向があります。定番例は「最小サンプル」として有用ですが、そこには production 向けの権限分離、認証、監査、rate limit、secret management までは含まれていないことが多いです。だから sample code を本番品質だと誤認すると、安全そうに見える insecure code が残ります。
最新の研究は何を示しているのか
Veracode は『機能改善ほど security quality は上がっていない』と示しています
Veracode report の重要な点は、「モデルが高性能になれば secure code も自然に増える」とは限らないことです。report では、より新しいモデルほど機能面の正しさは改善しても、security-specific guidance がない限り、secure code 率は十分に伸びないことが示されています。読者がここで理解すべきなのは、モデル性能の向上と安全性の向上は別軸だという点です。
つまり企業が取るべき行動は、「もっと賢いモデルに変える」だけではありません。AI に渡す要件の書き方、review checklist、公開前の gate、公開後の外部観点での点検を整えない限り、動くが危ないコードは残り続けます。
2025年末から2026年の研究でも、secure code generation はまだ補助策が必要です
Is Vibe Coding Safe?は、real-world feature request ベースの benchmark で coding agent を評価し、機能的に正しくても secure とは限らないことを示しました。SWE-Agent with Claude 4 Sonnet では機能正答率が 61% だった一方、secure だったのは 10.5% にとどまったとされます。数値は task 設計に依存するものの、“動く” と “安全” の差が依然として大きいことを示すには十分です。
一方で GoodVibe や RESCUE のような研究は、security knowledge を明示的に与えたり、security-relevant reasoning を強化したりすることで改善余地があることも示しています。これは逆に言えば、素のままの生成コードでは十分でないことの裏返しです。
NCSC の guidance は『secure AI system development』を life cycle 全体で見ています
NCSC の Guidelines for secure AI system developmentは、AI 開発を単発の prompt 改善ではなく、design、development、deployment、operation を通した責任として整理しています。AI生成コードの記事でも同じで、問題はプロンプトの表現力だけではありません。どの security requirement を設計時に固定し、どの review を deployment 前に通し、どの公開接点を operation で追うかまで含めて設計しないと、安全性は安定しません。
この観点は、既存の サービスアカウントのセキュリティ や プロンプトインジェクション とも自然につながります。生成AIで実装した結果として、credential、権限、外部接点の粗さが残りやすいからです。
本番に出す前に、どこをレビューするべきか
AI生成コードの review で大切なのは、「コードとして整っているか」と「公開サービスとして安全か」を分けることです。前者では入力検証、認証、認可、error handling、dependency、logging を見ます。後者ではどの host、route、login page、preview URL、Swagger、staging、bucket、docs が外へ出るかを見ます。repo review だけで公開面は分からないので、ここを一つの checklist に押し込まず、二段構えの gate として設計した方が運用しやすくなります。
認証・認可・入力検証を feature 要件とは別に明示する
機能要求だけで生成させると、動く実装が優先され、security constraint が抜けやすいためです。
browser に置いてはいけない値を先に固定する
API key、client secret、内部 URL を後から剥がすより、最初から外へ出さない前提で書かせた方が安全です。
review で dangerous default を探す
debug mode、緩い CORS、verbose log、認証なし route のような『とりあえず動く設定』が残りやすいためです。
公開前に code review と公開面 review を分けて回す
repo を見ても staging、Swagger、preview URL、古い host の露出までは分からないためです。
生成コードの採用基準を issue / PR に残す
人によって review の深さがぶれると、危険なテンプレートが再利用されやすくなるためです。
要件を『機能』と『安全条件』に分けて書く
認証の要否、server-side に寄せる処理、入力検証、rate limit、監査ログ、公開禁止の host や docs を自然言語要件へ先に入れます。
security acceptance criteria危険な実装パターンを review 観点として固定する
認証なし endpoint、secret の client-side 埋め込み、緩い CORS、debug route、危険な依存関係追加を review checklist に含めます。
review checklist生成コードを unit test だけで通さず、構成と公開面まで見る
コードの動作確認に加え、どの host、login page、preview URL、Swagger/OpenAPI、staging が internet-facing になるかを別レーンで点検します。
release gate公開後は差分監視で『残った粗さ』を拾う
AI で速く作った結果として残りやすい管理画面や公開接点を外部観点で棚卸しし、コードレビューだけでは見えない運用上の粗さを後追いで潰します。
公開面の追跡確認個別の security 記事へ深掘りリンクを送ると review が具体化します
broad に「AI生成コードは危険」と言うだけでは、現場のレビュー項目は増えません。むしろ、個別論点へ落とした方が実務的です。たとえば browser に値を置くべきかは APIキー露出、OAuth 実装境界は client secret 漏えい、機械IDは サービスアカウント管理、未承認 AI 利用は シャドーAI、外部から汚染される入力は プロンプトインジェクション へ送ると、review が具体化します。
つまり本記事は、「全部ここで説明する」ための記事ではありません。AI生成コードの危険性を親テーマとして整理し、その下にある実装ミスや運用論点へ自然に深掘りできるようにする記事です。こうすると、ユーザーの検索意図にも応えながら、チーム内の review 運用にも落とし込みやすくなります。
AI生成コードで作ったサービスを ASM診断 PRO で点検するなら

ASM診断 PRO は、生成コードの review 後に残りやすい公開面の粗さを外部観点で棚卸しする入口として使いやすい構成です。
ASM診断 PRO は、AI が書いたコードそのものを安全判定する製品ではありませんし、SAST や secure code review を置き換えるものでもありません。それでも AI生成コードの文脈で意味があるのは、コードレビューでは見えない公開面の粗さを拾えるからです。AI で速く組んだサービスでは、preview host、staging、login page、管理画面、Swagger/OpenAPI、古い subdomain、debug route などが残りやすく、repo review だけでは最終的な公開状態まで追い切れないことがあります。
生成コードの review を通した直後ほど、「もう十分確認した」という心理が働きます。しかし実際の利用者や攻撃者が触るのは repo ではなく、今 internet-facing になっている host と path です。AI生成コードの記事で強調したいのは、secure coding の問題と、公開状態の問題は分けて見るべきだということです。コードがきれいでも、公開面が雑なら attack surface は残るためです。
ASM診断 PRO を使うと、外から見える login page、preview host、staging、API docs、古い subdomain をまとめて洗い出し、どの接点が今も残っているかを整理しやすくなります。AI で速く作ったサービスは、開発チームの頭の中では「暫定」でも、公開面では本番同様に見えていることがあります。だから公開直前か直後に一度、外部から見た公開面の棚卸しを挟むと、生成コードの review だけでは抜ける箇所を早めに潰せます。
既存の 外部接続点の可視化 や 管理画面・開発環境の露出リスク とつなげて見ると、AI生成コードの危険性を「開発速度の話」で終わらせず、公開運用の課題として整理できます。生成AI で速く作ったサービスほど、無料で外部公開面を一度点検して、実際に見えている接点を棚卸しする流れに持ち込む価値があります。
次のアクション
AI生成コードを本番へ出す前に、公開中の接点を無料で確認してください
ASM診断 PRO で login page、preview host、staging、Swagger/OpenAPI、古い subdomain、公開ストレージを外部観点で洗い出し、生成コードの review 後に残った公開面の粗さを整理できます。
よくある質問(FAQ)
AI生成コードは全部 insecure だと考えるべきですか
いいえ。問題は AI が書いたこと自体ではなく、機能要求だけで通し、security constraint と review gate を置かないことです。適切な要件化と人手 review を前提にすれば、AI生成コードは補助になります。
一番最初に review すべきなのはどこですか
browser に置いてはいけない値、認証なし route、入力検証、緩い CORS、debug 設定、依存関係追加です。とくに「とりあえず動かす」ために入った仮実装が残っていないかを優先して見てください。
SAST や lint が通れば十分ですか
十分ではありません。repo 上のコードが整っていても、実際に公開された login page、preview host、Swagger/OpenAPI、古い staging は別レーンで確認する必要があります。
AI生成コードと Vibe Coding の違いは何ですか
Vibe Coding は AI に大きな裁量を渡す開発スタイル全体を指し、本記事はその中でも生成されたコード自体にどんな insecure pattern が混ざりやすいかを主役にしています。
公開後も確認が必要なのはなぜですか
AI で速く作ったサービスは、preview host や管理画面のような公開接点が残りやすく、code review だけでは最終的な公開状態まで見切れないためです。公開後の外部観点での点検まで含めた方が安全です。
まとめ
AI生成コードを安全に使う鍵は、モデル性能に期待し切ることではなく、危険な default を見逃さない review と公開面確認を組み合わせることです。
AI生成コードの脆弱性とは、生成AIが特別に新しい攻撃を作ることよりも、昔からある insecure な実装ミスを、速い開発サイクルの中で再生産しやすいことです。Veracode report や recent research が示すように、機能面の改善ほど security quality は自動で上がりません。つまり「最新モデルなら安全だろう」という期待だけでは足りず、認証、入力検証、秘密情報の境界、dangerous default、依存関係、公開面確認を人間が先に固定する必要があります。
実務では、認証なし route、client-side の key / secret、緩い CORS、debug 設定、雑な package 追加、preview host や Swagger の残置が典型的な入口になります。どれも新しい話ではありませんが、AI で速く作れるようになったことで、短時間に複数が重なりやすくなっています。だから対策は「AI を禁止する」ことではなく、機能要求と security requirement を分けて書き、review を code と公開面の二段で回し、危険な仮実装が本番へ残らないようにすることです。AI生成コードを安全に使うとは、生成速度を落とすことではなく、速くても崩れない gate を置くことです。
そして公開サービスでは、コードレビューだけで終えないことが重要です。repo で見た実装と、実際に internet-facing になった host や path は必ずしも一致しません。AI で速く作ったサービスほど、公開後に外部から見た公開面の点検を入れ、どの login page、preview host、staging、docs、API が残っているかを棚卸しした方が安全です。AI生成コードの問題を「開発中の品質」だけで終わらせず、「公開後に何が見えるか」まで含めて管理するチームの方が、速さと安全性を両立しやすくなります。
次のアクション
読み終えたら、無料でASM診断を開始
外部公開資産の現状を無料で確認し、管理漏れや優先して見るべきリスクを洗い出してください。記事で読んだ内容を、そのまま自社の判断へつなげやすくなります。
参考にした一次ソース
重要論点の根拠として参照した一次ソースだけを掲載しています。
security-specific guidance がない条件で生成コードの安全性が伸びにくいことを確認するために参照しました。
AI 開発を design、development、deployment、operation の life cycle 全体で見るべきという整理を確認するために参照しました。
機能的に正しい実装と secure な実装の差がまだ大きいことを補強するために参照しました。
素の生成コードではなく、security-aware な追加学習や guardrail が必要であることを補強するために参照しました。
secure code generation を改善するには外部 security knowledge を明示的に取り込む必要があることを確認するために参照しました。