AI活用に関する会社のルールを作りましょう<ネット時代に必要な企業防衛の極意 vol.38>

昨今のサイバー攻撃強化で改めて注目度が高まっているセキュリティ対策。2022年4月に施行された改正個人情報保護法でも、個人情報の利用や提供に関する規制が強化されています。一方で、ネット上の情報漏洩や誹謗中傷といった事例も近年、急増しています。当コラムでは、こうしたネット上のリスクや対応策について詳しく解説します。
※本記事は、会報誌『BIZUP Accounting Office Management Report』vol.142(2025.8)に掲載されたものです。
弁護士法人戸田総合法律事務所 代表
中澤 佑一 先生
ちょっとした調べものや、長い文章の要約、イラストの生成まで、AIを利用した便利なサービスが広がっています。私自身も、ここ最近は日常の弁護士業務の中でAIサービスを利用して業務効率化を図るようになってきました。
しかし、便利さの裏で、企業経営の観点からはAI利用のリスクについても検討し、社内での利用方法についてのルール作りに取り組むべき時期に来たと感じています。AI利用、特に生成AI利用に伴うリスクとしては、①情報漏洩、②著作権侵害、③レピュテーション(評判)の観点を最低限検討しなければなりません。
まず、情報漏洩のリスクです。AIサービスを利用する際、プロンプトや資料として情報を入力することになりますが、この入力する情報について注意が必要です。入力した情報がAIの学習に利用される場合があり、他のユーザーによるAIの操作を通じて、秘密情報が漏洩してしまうリスクがあります。利用するAIの規約等を確認し、入力した情報がAIの学習に使われないかを確認するようにしましょう。また、学習に利用されない場合でも、情報入手先との関係によっては、AIに情報を提供すること自体注意すべき場合もあります(秘密保持義務や個人情報保護法など)。AI利用が許されるか否かも情報の利用目的等の観点で確認が必要です。
次に、著作権侵害の観点です。生成AIは、既存の膨大なデータを学習して新たなコンテンツを生み出します。この学習データに著作権で保護されたコンテンツが含まれ、AIが生成したコンテンツが既存の著作物に酷似していた場合、著作権侵害で訴えられる可能性があります。著作権侵害は単に似ているという「類似性」に加えて、意図的にまねたという「依拠性」も要件になりますが、「〇〇風で~」といったプロンプトを用いて生成していた場合には、依拠性も充足する方向になると思われます。生成AIを利用してコンテンツを作成する場合、どのようなプロンプトで生成したのかも後の紛争に備えて記録しておく方が安全と言えます。
最後に、レピュテーションの問題です。生成AIには“他人が努力して生み出したコンテンツを学習して何の補償もせずただ乗りをしている”といった観点からの拒否反応もあります。企業が生成AIを利用して作成したイラスト等を広告に利用したことで炎上してしまった事例も発生しています。新しい技術については当然反発もあり、この辺は良し悪しではなく価値観の問題ですが、このような拒絶感を持たれる場合もあることは、AIを活用する企業としては認識しておくべきでしょう。
このようにAI利用にはリスクもあります。個々の社員がルールなく自由にAIを利用してしまうとリスクがコントロールできず企業にとっては大きな不利益です。各AIの規約等を確認して利用可能なサービスを選定し、利用時のルール作りを進め、安全にAI導入による業務効率化を進めてゆきましょう。

中澤 佑一
なかざわ・ゆういち/東京学芸大学環境教育課程文化財科学専攻卒業。 上智大学大学院法学研究科法曹養成専攻修了。2010 年弁護士登録。2011 年戸田総合法律事務所設立。 埼玉弁護士会所属。著書に『インターネットにおける誹謗中傷法的対策マニュアル』(単著、中央経済社)、 『「ブラック企業」と呼ばせない! 労務管理・風評対策Q&A』(編著、中央経済社)など。