• HOME
  • ライブラリ
  • ARTICLES
  • 自社データは本当に安全? AIの業務活用で直面する「セキュリティの不安」と対策

自社データは本当に安全? AIの業務活用で直面する「セキュリティの不安」と対策

AIの業務活用を検討するとき、こんな不安が頭をよぎることはないでしょうか。「機密情報が外部に漏れないか」「AIが誤った回答を返さないか」「見せてはいけないデータに誰でもアクセスできてしまわないか」こうしたセキュリティへの懸念は、AI導入における障壁のひとつです。

日本企業がAI導入に際して懸念していること割合 (%)05101520253035効果的な活用方法がわからない30.1%社内情報の漏洩などのセキュリティリスクランニングコストが掛かる初期コストが掛かる著作権等の権利を侵害する可能性がある出力結果の精度に問題がある懸念事項はない倫理上不適切な内容や偏見が含まれる27.6%24.9%22.1%19.8%18.4%14.4%12.6%

セキュリティ対策、どう考えるか

AIを業務に組み込む際、セキュリティへの対応にはいくつかのアプローチがあります。
ひとつは、自社のシステムやポリシーに合わせてゼロから設計・構築する方法。もうひとつは、セキュリティの仕組みがあらかじめ組み込まれたプラットフォームを活用する方法です。
前者は柔軟性が高い反面、設計・運用に相応の工数と専門知識が必要になります。後者は、プラットフォームが提供する範囲での対応になりますが、導入のハードルを大きく下げられるという利点があります。
特に、AI活用をまず小さく始めたいという場合には、後者のアプローチが現実的な選択肢のひとつになります。

セキュリティ機能を標準装備したプラットフォームの選択

では、具体的にどのようなプラットフォームがあるのでしょうか。
後者のアプローチを実現する代表的な選択肢として、Salesforceが挙げられます。Salesforceには、データの保護とAI出力の信頼性を守る中核として「Einstein Trust Layer」という仕組みが備わっており、企業側が個別に対策を構築しなくても安全に利用できる設計になっています。

主な機能を4つで読み解く

 1. データを学習に使わせない(ゼロデータリテンション)

入力したデータはAIモデルの学習には使用されず、処理が完了すると削除される仕組みになっています。自社データや顧客情報が外部に蓄積されることはありません。

 2. 個人情報を自動で伏せる(データマスキング)

AIへの指示を送る際、名前やメールアドレスなどの個人情報を自動的に伏せ字にする機能があります。LLMが実際の個人情報を直接参照することなく、文脈を理解した回答を生成できる仕組みです。

 3. 根拠のある回答だけを返す(グラウンディング)

Salesforce内にある実際の自社データを根拠として回答を生成する機能です。AIがその場で作り上げた不正確な回答、いわゆるハルシネーションを抑制し、業務で使えるアウトプットの精度を高めることを目的としています。

 4. 既存のアクセス管理がAIにも適用される

Salesforceでこれまで設定してきた「この部署にはこのデータを見せない」といったアクセス権限は、AIを活用する場面でも引き継がれる設計になっています。AI導入によって既存のデータガバナンスが崩れる心配はありません。

「標準で組み込まれている」という点

これらの機能がオプションではなく標準で組み込まれていることは、セキュリティへの懸念を抑え、AIの導入をスムーズに進める要素となります。
「セキュリティが不安で導入に踏み切れない」という方にこそ、知っておいていただきたい仕組みです。

次回は、AIに必要なデータの「品質」と「利用場面」についてご紹介します。


関連情報


Share

CONTACT

ご依頼・ご相談など、お問い合せはこちら