Security for AI(AIのためのセキュリティ)
- 意味: AIそのものを安全にする取り組み
- 対象: AIモデル、学習データ、推論環境、API
- 例
- 学習データへの データポイズニング攻撃 を防ぐ
- モデルが不正利用されないよう アクセス制御・認証 を強化
- LLMからの 情報漏洩 を防ぐためのフィルタリング
- 推論結果の 改ざん防止、モデル知財保護(盗用・リバースエンジニアリング対策)
AI for Security(セキュリティのためのAI)
- 意味: AIを活用してセキュリティを強化する取り組み
- 対象: セキュリティ監視、インシデント対応、脅威検知
- 例
- AIによる 脅威インテリジェンス分析(マルウェアやAPTの自動検出)
- ネットワークログを学習し、異常トラフィックをリアルタイム検知
- セキュリティオペレーションセンター(SOC)での AIアシスタント によるアラート優先順位付け
- フィッシングメールの 自動判別
用語
1)データポイズニング攻撃
AIモデルの学習データに、攻撃者が“誤ったデータ”を混入させる攻撃。
モデルが間違った判断を下すよう誘導したり、特定の結果を出すように操作される。
AI時代特有の“データ品質への攻撃”。
2)リバースエンジニアリング
アプリやAIモデルの動作を解析し、内部構造・設計・重み情報などを推測する行為。
モデルの盗用、脆弱性発見、攻撃手法作成につながるリスクがある。
“内部を解析して丸裸にする”技術のこと。
3)フィッシングメール
正規の企業・サービスを装ったメールを送り、受信者を騙して情報を盗み取る攻撃。
リンクをクリックさせ、パスワード入力やマルウェア実行を誘導する。
メール以外にSMS(ショートメッセージ)、SNS(ソーシャルネットワークサービス)、音声通話でも発生(”スミッシング”など)。