ChatGPTがデータセキュリティの問題になりうる理由

ChatGPTがデータセキュリティの問題になりうる理由

ChatGPTをはじめとする大規模言語モデル (LLMs: Large Language Models) は、非常にわずかな期間で絶大な人気を博し、現在では何百万人もの人々に日々使用されていることは間違いありません。

ChatGPTの人間のような応答を提供しコンテンツを生成する能力は、カスタマーサービス、教育、ヘルスケア、その他の業界にわたる企業や人々にとって価値があることが示されています。しかし、OpenAIの強力なAIツールにアクセスするために、これらの企業や人々は何を諦めることになるのでしょうか。答えは彼らのデータです。

 

あなたのデータがあなたのものでなくなるのはどんな時か?

Andrew Lewisの有名な言葉があります。「もしあなたがお金を払っていないのであれば、あなたは顧客ではありません。あなたは売られている商品です。」

ChatGPTには無料と有料のオプションがありますが、どちらの場合にしても、ChatGPTの入力として使用されるデータを、OpenAIが独自の商用目的で使用できることに変わりはありません。ChatGPTに入力されたデータは、新しいモデルの作成や将来の出力を改善させるのに役立つため、ChatGPTは使われれば使われるほどメリットがあります。

OpenAIの利用規約第3項を例にとると、OpenAIが入力されたデータをどのように使用しているのかが分かります。

「お客様は本サービスに入力を提供し、入力に基づいて本サービスが生成・返答する出力を受け取ることができます。入力と出力は総称すると「コンテンツ」です。… OpenAIは本サービスの提供と維持、適用される法律の遵守、およびポリシーを実施するためにコンテンツを使用することがあります。」

この規約により、OpenAIは、顧客がChatGPTに入力したデータを、ChatGPTに関連する、また関連しないサービスのために使用することができます。ChatGPTを組み込みアナリティクスの実装で使用している顧客にとって、これは悲惨な結果をもたらす可能性があります。

最近実際にあった「データ漏洩」事件では、Samsungの従業員がChatGPTを使用して独自プログラムのソースコード内にあるバグの修正を依頼してしまいました。言うまでもなく、この従業員はSamsungの独自コードを問い合わせの一部としてChatGPTに提供しています。これにより、そのコードはChatGPTが返答を生成するために使用するトレーニングデータセットの一部となったため、ChatGPTを利用する誰もがSamsungの独自コードにアクセスできるようになります。今後ChatGPTに問い合わせをすると、Samsung以外のユーザーに独自コードの一部または全部が公開される危険性があります。

より詳細な情報はこちら: データセキュリティとコンプライアンス: 5つの重要な考慮事項

 

組み込みアナリティクスにおけるChatGPTのリスク

企業は従業員のChatGPT使用に関連するデータ漏洩リスクに注意する必要がありますが、ChatGPTを使用する組み込みアナリティクスの実装にはさらなる注意が必要です。

既存のアプリケーションに組み込みアナリティクスやChatGPTのようなLLMを統合した、架空のウェルネス企業について考えてみましょう。このアプリケーションは、ウェアラブルと顧客の手動入力により、顧客の健康指標を追跡します。顧客は、組み込みアナリティクス機能を使用して健康状態の傾向を分析することができ、さらに、アプリケーションに実装されたChatGPTに問い合わせをすることで自身の健康データに関する分析を行い、パーソナライズされた返答を受け取ることができます。

この場合、パーソナライズされた返答を導き出すために使用された顧客のすべての健康データは、OpenAIが他のChatGPTの問い合わせに対する出力を作成する際や、新しい製品やサービスを構築する際に使用できます。ChatGPTがこの種のエンドユーザーデータへのアクセスを許可することは、厳格なデータプライバシー規制のある分野では特に問題となる可能性があります。

顧客が架空のウェルネス企業から個人データの削除を要求した場合、既にChatGPTに提供されたデータを回復または削除する仕組みはありません。さらに重要なことに、データは既にOpenAIに提供されており、将来の出力に利用されるため、顧客のプライバシーが侵害されていることになります。

さらに詳細な情報はこちら: データガバナンスとは何か?アナリティクスにおける説明責任と品質管理

 

データセキュリティを真剣に考える

ChatGPTのようなLLMは印象的ですが、これらの組み込みアナリティクスアプリケーションへの組み込みを急ぐ前に、強力なデータセキュリティポリシーを持つことが重要です。

考慮すべき項目は以下の通りです。

  • 独自対公共: 既存のアプリケーションはLLMアルゴリズムへの入力として独自のデータを使用しますか。ChatGPTは、入力データに基づいてコンテンツや人間のような応答を生成するのに優れていますが、入力に使用されるデータは公共のウェブサイトにデータを公開するのと同じように扱う必要があります。そのデータを公共のインターネットサイトに公開しないのであれば、ChatGPTの入力データとして使用すべきではないでしょう。
  • GDPRとCCPA: データプライバシー規制は世界的にホットな話題であり、国や州は顧客のデータに関するルールを進化させ続けています。既存の組み込みアナリティクスにChatGPTを採用することで、GDPRやCCPAに違反する可能性があり、高額な訴訟になる可能性があります。ChatGPTの利用規約には、サービスの利用者はChatGPTのコンテンツに関連するあらゆる法的結果に対して責任を負うことに同意すると明示されていることに留意する必要があります。これには、OpenAIに対するあらゆる訴訟も含まれます。
  • 使いやすさ: 既存の組み込みアナリティクスアプリケーションにChatGPTを実装することで、エンドユーザーに有用な機能を提供できるでしょうか、それとも、ChatGPTに関連する話題の一部を取り込むことを目的にしているのでしょうか。ChatGPTやLLMの実装は印象的ですが、組み込みアナリティクス分野でのユースケースは限られており、他のソリューションではまだ解決されていません。ChatGPTのようなものがもたらす価値を考え、OpenAIにデータを提供することに伴うリスクと比較検討することが重要です。

 

Yellowfinでは、データとデータセキュリティの重要性を理解しています。このプラットフォームは、データガバナンスと分離を製品の重要な機能として、一から設計されています。Yellowfinを使用して既存のアナリティクスにBIを組み込む企業は、社内のデータを犠牲にしたり公開したりすることなく、エンドユーザーにアナリティクスに関する貴重なインサイトを提供することができます。

YellowfinではLLMやChatGPTのイノベーションを追い続けていますが、現在このような技術をYellowfinに取り込むリスクは、メリットをはるかに上回ると考えています。Yellowfinでは既にガイド付きNLQのようなアクセシビリティ機能を提供することで、エンドユーザーはより理解しやすい人間のような質問プロセスを使用してデータ分析を行うことができます。そしてこれは、ユーザーデータをサイロの外にコピーすることなく達成できます。

 

ご自身でYellowfinをお試しください

Yellowfinが、顧客独自のユースケースに対して、AIで強化され洗練された、安全性の高いアナリティクスエクスペリエンスを、顧客やユーザーに提供する方法を紹介します。

無料評価版

Thanks for trying Yellowfin

Please complete the form below to request your copy of Yellowfin today.