コラム

公開 2023.12.27

個人情報を生成系AIに入力する際の注意点とは?個人情報保護法上の問題点について弁護士が解説

企業法務_アイキャッチ_2850

2023年に広く普及した生成系AI(生成AI)の活用においては、「どのようなプロンプト(指示文)を与えるか」が大きなポイントといえます。
では、利用者が生成AIに入力するプロンプトに個人情報が含まれる場合、どのような点に注意する必要があるのでしょうか。
生成系AIと個人情報にまつわる注意点や、リスクへの事前対策について、弁護士がくわしく解説します。

文責
Authense法律事務所
弁護士 
(神奈川県弁護士会)
神奈川県弁護士会所属。中央大学法学部法律学科卒業、慶應義塾大学大学院法務研究科修了。離婚、相続を中心に家事事件を数多く取り扱う。交渉や調停、訴訟といった複数の選択肢から第三者的な目線でベストな解決への道筋を立てることを得意とし、子の連れ去りや面会交流が関わる複雑な離婚案件の解決など、豊富な取り扱い実績を有する。
<メディア関係者の方>取材等に関するお問い合わせはこちら

1.前提:個人情報と個人データ

個人情報保護法に規定されている「個人情報」は、同法2条1項で定義されています。
個人情報とは、主として、生存する個人に関する情報であって、その情報に含まれる記述などにより特定の個人を識別することができるものをいいます。
そして、検索することができるよう体系的に構成された個人情報を含む情報の集合物を、「個人情報データベース等」といいます(同法第16条第1項)。

また、「個人データ」とは、個人情報データベース等を構成する各個人情報を意味します(同法第16条第3項)。

2.個人データをプロンプトに入力する際の個人情報保護法上の問題点について

生成系AIに個人データを入力する際、個人情報保護法に関するいくつかの重要な問題があります。

2-1.利用目的による規制

自社が保有する個人情報を生成系AIに入力する場合、利用目的の達成に必要な範囲であることが求められます(個人情報保護法第18条第1項)。
「個人データ」に該当しない情報であっても、「個人情報」に該当するものであれば当該規制の対象となります。

利用目的は、個人情報を取得する際にプライバシーポリシーで明示することが一般的です。
個人情報保護法は、利用目的を「できる限り」特定しなければならないとしています(個人情報保護法第17条第1項)。

利用目的は、本人が利用方法を合理的に予測できる程度に特定すれば足ります。
例えば、「閲覧履歴を分析して傾向に合致した広告表示を行う」といった内容がプライバシーポリシーに記載されていれば、当該目的のためにChatGPTを使用することは問題ないと思われます。

2-2.本人の個別の同意が必要な場合(第三者提供の観点から)

第三者提供

「提供」とは、個人データなどを、自己以外の者が利用可能な状態に置くことをいいます(個人情報の保護に関する法律についてのガイドライン通則編2-17)。

自分の会社にとって個人データに当たれば、これを第三者提供するには原則としてあらかじめ本人の同意を得るか、オプトアウト手続が必要です(個人情報保護法第27条第1項、第2項)。
個人データを受領者にとって個人データではない形で加工しても、その情報の提供は第三者提供にあたるということになります(提供元基準説)。
例えば、氏名をマスキングしても、その情報がそもそも個人データの一部を構成するのであれば、第三者提供です。

クラウド例外

個人情報保護法第27条第1項「提供」の解釈に「クラウド例外」というものがあります。
クラウド事業者側で個人データを取り扱わない場合には、クラウド事業者にデータを渡すのは「提供」ではないというものです。※1

もっとも、以下で説明するように、ChatGPTのプロンプトに個人データを入力する場合、「提供」にあたると考えて対応すべきであると思われます。
OpenAI社が「個人データを取り扱わない」かどうかを確認すると、2023年11月時点では、APIを通して入力された情報は常に利用されず※2、APIを介さずに入力された情報はChatGPTの「training」をオフにすることで利用されなくなる旨の記載があります。※3
そのため、ChatGPTが実際にこの記載に従って運用されている場合、APIを介していない場合でも「training」をオフにすればOpenAI社は「個人データを取り扱わない」事業者であり、第三者提供に当たらないと解釈することもできそうです。

しかし、OpenAI社は海外の法人ですので、第三者提供に該当する場合、国内の第三者への提供に比して厳しく規制されます(個人情報保護法第28条)。
「個人データを取り扱わない」といえるかどうか明確ではないうちは、「提供」にあたると考えて対応すべきでしょう。

なお、個人情報保護委員会が公表した「生成AIサービスの利用に関する注意喚起等について※4」では、生成AIサービスの利用に関する注意喚起等の⑴②において、「個人情報取扱事業者が、あらかじめ本人の同意を得ることなく生成AIサービスに個人データを含むプロンプトを入力し、当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合、当該個人情報取扱事業者は個人情報保護法の規定に違反することとなる可能性がある。そのため、このようなプロンプトの入力を行う場合には、当該生成AIサービスを提供する事業者が、当該個人データを機械学習に利用しないこと等を十分に確認すること」とされています。

2-3.生成系AIを提供する会社へ個人データの取扱を委託したことになるか

個人データ取扱いの委託

個人情報保護法上、利用目的の達成に必要な範囲内で個人データの取扱を委託することに伴って当該個人データが提供される場合は本人同意が不要です(個人情報保護法第27条第5項第1号)。

「個人データの取扱いの委託」とは、「契約の形態・種類を問わず、個人情報取扱事業者が他の者に個人データの取り扱いを行わせることをいう。具体的には、個人データの入力(本人からの取得を含む。)、編集、分析、出力等の処理を行うことが想定される。」とされています(個人情報の保護に関する法律についてのガイドライン通則編3-4-4)。

そして、個人情報保護委員会は、外部事業者のみが個人データを取り扱い、依頼事業者が個人データの取り扱いに関与しない場合は、「通常、当該個人データに関しては取扱いの委託をしていないと解されます」とし、「他方……依頼した事業者が当該個人データの内容を確認できる場合」、「契約上……依頼した事業者に個人データの取扱いに関する権限が付与されている場合」、「外部事業者における個人データの取扱いについて制限が設けられている場合」には、委託をしていると解されるものとしています(「個人情報の保護に関する法律についてのガイドライン」に関するQ&A Q7-36)。

OpenAI社については、APIを使った場合はDPAを結ぶことができます。

ChatGPT APIユーザはhttps://openai.com/policies/data-processing-addendumDからリンクされたフォームを送信することで、OpenAI社とデータ処理追加条項(DPA)の締結ができます。

APIを使えば機械学習に使われず、OpenAIを委託先として解することが可能かもしれません。
ただし、個人情報保護法第25条における監督ができる仕組みがあるかなど、問題が残ります。

2-4.越境移転規制

外国にある第三者への個人情報提供(個人情報保護法第28条)に該当するかが問題となります。
該当すれば本人同意が必要となります。

これにより、OpenAI社が「個人データの取扱についてこの節の規定により個人情報取扱事業者が講ずべきこととされている措置に相当する措置を……継続的に講ずるために必要なものとして個人情報保護委員会規則で定める基準に適合する体制を整備している者」と評価できるのであれば、本人からの取得は不要といえます。

3.個人データを入力することに伴うリスクへの事前の対策

個人情報の入力場面

個人情報の取得時点での利用目的の特定(個人情報保護法第17条第1項)および通知・公表(同法第21条)に気を付ける必要があります。

顧客や取引先などから個人情報を取得する際にプライバシーポリシーの確認を求めることで、この利用目的の通知・公表が実施されています。
ChatGPTの利用にあたっては、自社におけるプライバシーポリシーにおける利用目的の記述が、ChatGPTを利用して行おうとしているビジネスに合わせて「できる限り特定」されているか、確認が必要です。

社内規程

社内規程では、個人データに当たるような情報はプロンプトには入力してはいけないというルールにした方が安全です。

なお、前述のように、個人情報保護委員会が公表した「生成AIサービスの利用に関する注意喚起等について」では、生成AIサービスの利用に関する注意喚起等の⑴②において、「個人情報取扱事業者が、あらかじめ本人の同意を得ることなく生成AIサービスに個人データを含むプロンプトを入力し、当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合、当該個人情報取扱事業者は個人情報保護法の規定に違反することとなる可能性がある。そのため、このようなプロンプトの入力を行う場合には、当該生成AIサービスを提供する事業者が、当該個人データを機械学習に利用しないこと等を十分に確認すること」とされています。
これによれば、OpenAI社のAPIを使って個人データが利用されないようにしておくことが必要と言えます。

NDAで規制された情報を入力すること

一般論として、「他社と締結したNDAが定める秘密情報」に含まれる情報を生成系AIに入力することは、第三者に対する秘密情報の開示、頒布、漏洩に当たり得ます。

NDA上、公開情報は秘密情報から除くといった除外規定や、秘密情報に当たる情報であっても、委託先への開示であれば例外的に許容する規定が定められていることがあります。
そのため、これらの規定に依拠してNDA上の秘密情報を生成系AIに入力することがNDAに違反しないと考えることもできます。

もっとも、個別の入力データセットあるいはプロンプトについて、個別のNDAが定める除外規定への該当性を都度実効的に確認することは難しいでしょう。
また、通常は、秘密情報を生成系AIに入力することを利用目的と定めていないでしょうから、目的外利用禁止の規定に反するおそれもあります。
そのため、他社とNDAを締結して提供されたような秘密情報は生成系AIには基本的には入力しないという運用が適切でしょう。

NDAに違反しないことが表明保証あるいは確認できたデータのみを入力に用いることとした上で、NDA違反が往々にして契約違反だけでなく不正競争防止法(第2条第1項第7号)などの法令上のリスクにもなることや、こうした漏洩などが露見するリスクを周知することも必要でしょう。

4.生成系AIにより出力された個人情報の取扱について

ChatGPTは公表された著作物を学習データとしている他、ユーザのプロンプトなども学習データとして収集する場合があり、出力される情報から個人情報が排除されている保証はありません。
ユーザが、個人情報が混入している生成物を利用すると、ChatGPTから不正に個人情報を取得したとみなされるリスクを負うことになります(個人情報保護法第20条)。
利用態様によっては、個人情報保護法第19条や第22条に反するおそれもあります。

また、前科前歴や病歴などに関する「要配慮個人情報」の取得には本人の同意が必要とされていますが(個人情報保護法第20条第2項)、この要配慮個人情報を偶然取得してしまう可能性もあります。
なお、個人情報保護委員会から「OpenAIに対する注意喚起の概要※5」として、要配慮個人情報の取得に関し言及がありました。

まとめ

生成系AIは今もなお急速な進化の途上にあり、今後もその問題点について議論が続くものと考えられます。
ビジネスにおける生成系AIの活用にはさまざまな可能性がある一方で、個人情報をはじめとするリスク管理は企業にとって大きな課題といえるでしょう。
AIを取り巻く法規制やルール策定の動向について、今後も注視していきたいところです。

顧問契約、企業法務のご検討・ご相談はこちら

企業法務に関する資料、様々なプランを
ご用意しています。

弁護士へご相談可能な時間帯
平日:10:00~最終受付18:00 /
土日祝:10:00~最終受付17:00

こんな記事も読まれています

CONTACT

法律相談ご予約のお客様
弁護士へご相談可能な時間帯
平日:10:00~最終受付18:00 /
土日祝:10:00~最終受付17:00

ご相談から解決までの流れ