AIの利用をめぐるサイバーリスクとは?2026年初選出の脅威と対策

生成AIを業務に取り入れている企業が増える一方で、「AIを使うことで、逆に自社がサイバー攻撃の標的になるかもしれない」という不安を感じていませんか?

2026年1月、IPA(独立行政法人情報処理推進機構)が発表した「情報セキュリティ10大脅威2026」では、「AIの利用をめぐるサイバーリスク」が3位に入りました。

生成AIの急速な普及により、情報漏えいや高度なサイバー攻撃のリスクが現実のものとなっています。

「どんなリスクがあるのかわからない」「何から対策すればいいのか見当もつかない」——そう感じているIT担当者や経営者の方も多いのではないでしょうか。

この記事では、AIの利用をめぐるサイバーリスクでまず何が危ないのかを整理したうえで、企業が今すぐ取り組むべき具体的な対策を解説します。

情報セキュリティ10大脅威2026とは?IPAが発表した最新ランキングを解説

IPAは毎年、社会的影響の大きかったセキュリティ脅威を選出し「情報セキュリティ10大脅威」として発表しています。

2026年版では、組織を取り巻くセキュリティ環境に大きな変化が生じました。

とくに注目すべきは、AIに関連するリスクが初めて選出されたことです。

  • 【この章で紹介する内容】
  •  ・情報セキュリティ10大脅威2026のランキング一覧
  •  ・2025年版との変更点と注目ポイント

情報セキュリティ10大脅威2026ランキング一覧

2026年版のランキングは以下のとおりです。

順位脅威の名称
1位ランサム攻撃による被害
2位サプライチェーンや委託先を狙った攻撃
3位AIの利用をめぐるサイバーリスク(初選出)
4位シ地政学的リスクに起因するサイバー攻撃(情報戦を含む)
5位機密情報を狙った標的型攻撃
6位地政学的リスクに起因するサイバー攻撃
7位内部不正による情報漏えい等
8位リモートワーク等の環境や仕組みを狙った攻撃
9位DDoS攻撃(分散型サービス妨害攻撃)
10位ビジネスメール詐欺

出典:IPA(独立行政法人情報処理推進機構)「情報セキュリティ10大脅威 2026

このなかでも本記事で注目するのが、3位に初選出された「AIの利用をめぐるサイバーリスク」です。

生成AIが急速に普及した2025年、AIに起因するセキュリティ被害が社会的に大きな影響を与えたことが選出の背景にあります。

2025年版との変更点・注目ポイント

1位「ランサム攻撃」・2位「サプライチェーン攻撃」は前年から変わらず、依然として企業にとって最大級の脅威であり続けています。

一方、最も大きな変化は「AIの利用をめぐるサイバーリスク」の初登場です。

この脅威のランクインは、情報セキュリティ分野の実務担当者や有識者による選考で、企業が重視すべき新たな脅威として位置づけられたことを示しています。

「AIの利用をめぐるサイバーリスク」とは?3つのリスクを徹底解説

「AIの利用をめぐるサイバーリスク」と一口に言っても、その内容は多岐にわたります。

整理して理解するために、大きく3つのリスクに分類して解説します。

  • 【この章で紹介するリスク】
  •  ・生成AIへの情報入力による情報漏えいリスク
  •  ・AIを悪用した高度なサイバー攻撃
  •  ・【リスク③】AIシステム自体を狙った攻撃

生成AIへの情報入力による情報漏えいリスク

1つ目は生成AIに業務データを入力することで、意図せず機密情報が外部に漏れてしまうリスクです。

たとえば、個人向けの生成AIサービスでは、入力内容がサービス改善やモデル学習に利用される場合があります。

一方で、法人向け・有料プランでは取り扱いが異なることもあるため、利用前に各サービスの利用規約やプライバシーポリシーの確認が重要です。

社員が悪意なく顧客情報や社内資料を貼り付けてしまうケースが、実際に国内外の企業で報告されています。

とくに問題となっているのが「シャドーAI」と呼ばれる現象です。

シャドーAIとは、会社の許可や管理を通さずに、社員が個人判断で業務に使っているAIツールのことです。

次のような問題点があります。

 ・会社が承認していないAIツールを社員が個人の判断で使用する
 ・入力してはいけない情報のルールが社内に存在しない
 ・利用状況を管理・把握できていない

こうした状況が重なることで、気づかないうちに情報漏えいが起きてしまうのが、このリスクの怖いところです。

AIを悪用した高度なサイバー攻撃

2つ目は、AIを悪用したサイバー攻撃です。

AIを悪用した攻撃の手口は、年々巧妙になっており、以下のような事例が確認されています。

攻撃手法内容
AIによるフィッシングメール生成違和感のない自然な日本語で大量の詐欺メールを自動作成
ディープフェイクを使ったなりすまし経営者の声や映像を偽造し、送金指示などを行う
マルウェアの自動生成AIがコードを生成し、検知されにくいウイルスを作成

こうした攻撃は、人間が目視で確認するだけではなかなか見抜けません。

AIシステム自体を狙った攻撃

3つ目は、自社で導入したAIツールやシステムそのものが、攻撃の標的になるリスクです。

AIシステムには、これまでのソフトウェアとは少し違う弱点があります。

たとえば、AIにわざと間違ったデータを学習させて判断を狂わせる「データポイズニング」や、入力データを細工してAIに誤認させる「敵対的攻撃」などがあります。

AIを導入すること自体がリスクになり得るという視点も持っておきましょう。

情報セキュリティ10大脅威2026で押さえるべき他の重要脅威

AIリスク以外にも、企業が警戒すべき脅威はあります。

10大脅威の全体像を把握することで、自社のセキュリティ対策の優先順位が見えてきます。

  • 【この章で解説する内容】
  •  ・1位・2位|ランサム攻撃とサプライチェーン攻撃
  •  ・6位|地政学的リスクに起因するサイバー攻撃
  •  ・7位・10位|内部不正・ビジネスメール詐欺にも要注意

1位・2位|ランサム攻撃とサプライチェーン攻撃

脅威であり続けているのが、ランサムウェアとサプライチェーン攻撃です。

ランサムウェアは企業のデータを暗号化し、復旧と引き換えに身代金を要求します。

11年連続で選出され、2026年版でも1位となっており、被害額が億単位に及ぶケースも珍しくありません。

また、2位のサプライチェーン攻撃は、セキュリティ対策が比較的弱い取引先や委託先を足がかりにして、本来の標的である企業を狙う攻撃です。

実際にランサム攻撃やサプライチェーン攻撃が原因で発生した、被害事例は以下のページでも紹介しているので、参考にしてください。

【2025年最新】サイバー攻撃を受けた企業一覧|被害内容・原因・復旧対応まで徹底解説

6位|地政学的リスクに起因するサイバー攻撃

地政学的リスクに起因するサイバー攻撃とは、国どうしの対立や国際情勢の悪化を背景に起こるサイバー攻撃のことです。

一見、日本には関係のない遠い国の紛争や政情不安に思えますが、デジタル空間に国境はありません。

攻撃側は、低いコストで相手国の社会や経済に影響を与えられる手段として、日本の重要インフラや企業を標的にすることがあります。

事例概要地政学的背景
名古屋港システム停止
(2023年7月)
ランサムウェアによりコンテナ搬入出が約3日間全面停止。ロシア系集団「LockBit 3.0」が関与。ウクライナ情勢に伴う日本への揺さぶりとの見方。
KADOKAWAへの攻撃
(2024年6月)
ニコニコ動画等のサービスや出版業務が長期間停止。ロシア系とされる攻撃グループの関与が報じられており、地政学的な緊張とサイバー攻撃の結びつきが懸念された。

このように、日本の物流やエンターテインメントなど、社会に影響を与える拠点が狙われた場合、地政学的リスクに起因するサイバー攻撃が疑われます。

7位・10位|内部不正・ビジネスメール詐欺にも要注意

外部からの攻撃だけでなく、内側からの脅威もあります。

7位「内部不正による情報漏えい」は、退職者や不満を持つ社員による情報持ち出しが典型例です。

一方、10位のビジネスメール詐欺は、取引先や上司になりすましたメールで、送金や情報提供をだまし取る手口です。

いずれも、人の思い込みや判断ミスにつけ込まれやすいリスクです。だからこそ、技術的な対策だけでなく、社内ルールの整備や教育も重要になります。

AIの利用をめぐるサイバーリスクへの対策5選|企業が今すぐ取り組むべきこと

リスクの全体像が把握できたところで、次は具体的な対策を見ていきましょう。

ここでは、企業が優先して取り組むべき対策を5つに絞って解説します。

予算やリソースに限りがある場合でも、優先度の高いものから着手することが重要です。

  • 【この章で紹介する内容】
  •  ・生成AI利用ルール・ガイドラインの整備
  •  ・シャドーAI対策と利用状況の可視化
  •  ・AIを悪用した攻撃への技術的対策
  •  ・AIシステム自体のセキュリティ確保
  •  ・インシデント発生時の対応体制の整備

生成AI利用ルール・ガイドラインの整備

まず取り組むべきは、社内でのAI利用に関するルールの明文化です。

ルールがないまま生成AIを使い続けることは、情報漏えいリスクを野放しにするのと同じです。

中小企業では「なんとなく使っている」状態が多く、それ自体が大きなリスクになります。

具体的には以下の項目をガイドラインに盛り込みましょう。

・業務で使用を許可するAIツールを会社として明示する
・入力禁止情報(個人情報・機密情報・顧客データ等)を具体的に規定する
・違反した場合の対応フローを定める
・定期的な従業員教育・周知の場を設ける

生成AIは、便利である一方、まだルールやガイドラインが作成されていないケースも多いです。

そのため、業務で使う際のルールやガイドラインを整える必要があります。

シャドーAI対策と利用状況の可視化

ルールを作るだけでなく、実態を「見える化」する仕組みも必要です。

社員がどのAIツールを使っているかを把握できていない企業は、シャドーAIのリスクにさらされています。

そこで有効なのが、ネットワーク上のツール利用状況を監視・制限するCASB(クラウドアクセスセキュリティブローカー)やDLP(情報漏えい防止)ツールの活用です。

具体的な取り組みとしては、以下が挙げられます。

・未承認ツールの利用を自動で検知・ブロックする仕組みの導入
・ログ管理による社内のAI利用状況の定期的な確認
・新しいAIツールが登場した際の承認フローの整備

「使っているかどうかわからない」状態をなくすことが、シャドーAIリスクを防ぐ第一歩です。

AIを悪用した攻撃への技術的対策

高度化する攻撃に対抗するには、技術的な防御を多層的に整えることが欠かせません。

AIを使った攻撃は、従来のパターン検知型のウイルス対策ソフトでは防ぎきれないケースが増えています。

そのため、より高度なセキュリティツールへのアップグレードが求められます。

見直しを検討したい対策は以下のとおりです。

対策項目内容・効果
多要素認証(MFA)パスワード漏洩時の不正アクセスを防止
メールセキュリティ対策実際の詐欺メールを模した訓練で従業員の対応力を向上
ソフトウェアの定期アップデートOSやアプリを常に最新の状態に保ち、攻撃の侵入口を塞ぐ
フィッシング訓練実際の詐欺メールを模した訓練で従業員の対応力を向上

UTMという選択肢も

Service Image

初めてセキュリティ対策に取り組むのであれば、
まずは、ウイルス対策とUTMの導入がおすすめです。 個別にツールを揃えるよりもコストを抑えながら、多層的な防御を実現できます。

AIシステム自体のセキュリティ確保

自社で導入・運用するAIツールのセキュリティ管理も見落とせません。

AIシステムは導入して終わりではなく、継続的な管理が必要です。

特にクラウド型のAIサービスを利用する場合、ベンダー側のセキュリティ体制も自社のリスクに直結します。

以下の点を定期的に確認・対応するようにしましょう。

・導入しているAIツールのアップデートを定期的に確認・適用する
・契約しているAIサービスが「入力したデータをどう使うか」を利用規約で確認する
・AIツールにアクセスできる社員を必要な人だけに絞り、権限を管理する
・万が一情報が漏れた場合に備え、個人情報の取り扱いルールを社内で整備しておく

AIツールを「使いっぱなし」にせず、定期的な棚卸しと見直しを習慣化することが重要です。

インシデント発生時の対応体制の整備

万が一の事態に備えた「有事の体制」を整えておくことも、重要な対策のひとつです。

攻撃を完全に防ぐことは難しいため、被害が発生した際にいかに素早く・適切に動けるかが被害の拡大を左右します。

事前に以下の体制を整えておくことで、いざというときに慌てずに対応できます。

・CSIRT(セキュリティインシデント対応チーム)の設置または外部委託の検討
・インシデント対応フロー(発見・報告・初動・復旧)の文書化
・重要データの定期バックアップと復旧手順の確認
・BCP(事業継続計画)へのサイバー攻撃シナリオの組み込み

有事の対応手順を平時のうちに整えておくことで、被害を最小限に抑えられます。

よくある質問

最後にAIの利用をめぐるサイバーリスクについてよくある質問を紹介します。

Q. AIの利用をめぐるサイバーリスクとは?

生成AIの普及に伴い顕在化した、AIに関連するセキュリティリスクの総称です。IPA「情報セキュリティ10大脅威2026」で初めて3位に選出されました。

Q. AIに入力してはいけない情報は?

顧客・取引先の個人情報、社内の機密情報・未公開の経営情報、契約書・見積書などの社外秘文書、システムのパスワードやアクセスキーなどは入力しないことが基本です。

Q. AIがもたらすリスクは?

AIがもたらすリスクは、大きく3つに整理できます。1つ目は情報漏えいやシャドーAIなど「AIを使う側のリスク」、2つ目はフィッシングやディープフェイクなど「AIを悪用した攻撃を受けるリスク」、3つ目はデータポイズニングや敵対的攻撃など「AIシステム自体が狙われるリスク」です。

Q. 生成AIのリスクを解決するにはどうすればいいですか?

まずは「社内のAI利用ルールの整備」から始めるのが効果的です。入力禁止情報の明文化・承認ツールの指定・従業員教育の3点が基本となります。

まとめ|AIリスクを正しく理解して、今日から対策を始めよう

この記事では、IPA「情報セキュリティ10大脅威2026」で初選出された「AIの利用をめぐるサイバーリスク」の全体像と、企業が今すぐ取り組むべき対策について解説しました。

【この記事で解説した内容】
 ・「AIの利用をめぐるサイバーリスク」は2026年に初めて10大脅威の3位に選出された
 ・AIリスクは3つに分類される
 ・ランサムウェアやサプライチェーン攻撃など、AI以外の脅威も依然として深刻
 ・対策の第一歩は「社内AI利用ルールの整備」で、技術的対策と組み合わせる

AIのサイバーリスク対策は、特定のツールを導入すれば終わりではありません。

ルール整備・技術対策・体制づくりの3つをセットで取り組むことが重要です。

ただし、社内だけですべてに対応するには限界があります。

セキュリティ対策に不安を感じたら、UTMなどのセキュリティ機器の導入を検討しましょう。

導入や対策全般についてのご相談は、お気軽にお問い合わせください。

ホーム » column » AIの利用をめぐるサイバーリスクとは?2026年初選出の脅威と対策

まずはプロに無料で相談

お電話でのお問い合わせ

0120-988-551
受付時間:平日 9:00〜18:00

メールでのお問い合わせ (24時間365日受付)

お問い合わせ arrow_forward