最善の道筋が常に明確になっているわけではありません。そのため、ポリシーと原則について関係者を啓発することが不可欠です。また、利害の対立を調整するため、「トレードオフの枠組み」を策定するべきです。
最後に、データ倫理の準拠状況を把握するには、企業全体のAIに関連するデータ利用を視野に入れることが必須です。データプライバシーに関する懸念の対象にはサプライヤーやその他の第三者も含まれるため、AIが何らかのソリューションやサービスに使用されている場合には、契約上の要件として開示を義務付けるべきです。
4. データプライバシーおよびデータ倫理に関するリスクの取締役会レベルの報告
取締役会が包括的な倫理フレームワークに沿ってAIの活用に伴うリスクを理解・軽減し、戦略上の決定を行えるよう、関係者全員が協力して支援する必要があります。多くの企業では、データ倫理に関する責任を負うこともあるデータ保護責任者(DPO)または最高プライバシー責任者(CPO)と最高データ責任者(CDO)が責務を分担しています。さらに歩みを進め、最高AI責任者(CAIO)を任命している企業もあります。AIにおけるデータの倫理的利用について管理と均衡が適切に機能するよう、これらの経営幹部が協力して取り組む必要があります。
5. 顧客センチメントを対象に含めるため、ホライズンスキャニングを拡大する
個人データの大規模な収集・保管に対する懸念を背景に、2023年4月、イタリアは西洋諸国で初めて、最新生成AIチャットボットの一時的な禁止に踏み切りました3。日本でも、プライバシー保護機関が当事者の許可なく機微データを収集しないよう警告を発しました4。
このような措置が取られた場合、AIへの投資価値が一挙に損なわれかねません。規制の変更を巡る不確実性を低減し、不測の事態を回避するには、先見的な体系的分析またはホライゾンスキャニングが不可欠です。しかし、留意する必要があるのは規制だけではありません。企業は、顧客がAIの利用とデータプライバシーについてどのように考えているのかを常に把握しておく必要があります。顧客と日頃から対話を重ねて許容範囲と「立ち入ってほしくない領域」を理解することにより、規制当局の一歩先を行くよう努めなければなりません。
6. コンプライアンスとトレーニングに投資する
AI利用に対する関心は比較的わずかな期間に急激に高まりました。これを受け、さまざまな企業の従業員がAI利用の影響とそれがデータプライバシーに与えるインパクトを理解しなければならない状況に置かれています。既存のコンプライアンスチームを対象にOJTと座学を組み合わせた研修を実施してスキルアップを図るために、新たに専門家を雇用しなければならない企業も多いでしょう。
特に重要なのは、開発者、検査担当者、データサイエンティストなどのAIに直接関わる従業員に研修を実施し、AIの限界、AIが誤りを犯す可能性が高い領域、適切な倫理、人間が介入することでどのようにAIを補完するかについて理解できるよう支援することです。AIの制御に取り掛かるに当たって業務指針の策定に加え、イノベーション促進とデータプライバシーやデータ倫理の尊重との均衡を目指す考え方を醸成する必要があります。
EYのメンバーファームは、現地の法令により禁止されている場合、法務サービスを提供することはありません。