マスクド・アナライズ

マスクド・アナライズ

(写真:Kinga / shutterstock

あなたの会社にCDOはいますか? 生成AIを活用するのであれば不可欠な役職

生成AIを使って企業の競争力を上げたいのであれば、すぐにでもCDO(チーフ・データ・オフィサー)を任命すべきだ。その役割を紹介する。

Updated by Masked Analyz on March, 5, 2024, 5:00 am JST

CDOを任命する意味

生成AIを活用するとき、社内外のデータをどこまで使って良いのか、どのように活用するのか、どうすれば安全に利用できるのか、ガイドラインがなければ多くの社員は悩んでしまうことでしょう。

社員が戸惑ってしまわないようにするためには、データの管理・活用・展開を取りまとめる中心人物が必要となります。いわばCDO(チーフ・データ・オフィサー)と呼ぶべき責任者です。CDOが生成AIとデータの適切な利用に関するルール作りやガイドラインをまとめながら自社にとって最適な形を目指すことで、現場ははじめて効率化されます。

生成AIの利用には、まだ明確な答えやルールが整備されていない部分があります。
しかし使わなければ、知見を貯めることもできず、他社に先を越されてしまいます。社内に旗振り役を任命しておくことで、生成AIの活用をスムーズにできるようにしておきましょう。

CDOが管理するポイントは大きく「法律・規制」「契約」「プライバシー・利用者感情」の3つに分類できます。

法律・規制を遵守できるかは人間が判断

最初に挙げておくべきガイドラインは、法律及び規制への遵守のための社内ルールです。

多くの企業が関連するのは、おそらく個人情報保護法にまつわる内容でしょう。
個人の名前や住所など個人を特定できる情報は厳重に保管しなければなりません。データを利用する場合は、個人を特定できないように加工しておきます。

また、生成AIの利用においてよく話題になるのは、著作権の侵害です。意図していなかったとしても、成果物が他の著作物と極めて類似する場合は、著作権侵害の恐れがあります。防ぐ方法としては、人間による確認が今のところは確実性が高い対処だといえるでしょう。

専門知識が必要な分野において、生成AIに頼りすぎると問題が生じることもあります。病気の診断、法律や契約に関する助言、不動産や金融商品の取引には、専門資格が必要です。これらの資格を持たないまま、生成AIを利用して業務を行うことは法律に違反します。

あくまで生成AIは専門家を支援する役割と位置づけて、提案の幅を広げたり手間のかかる事務作業の代行をしたりするなど、利用者や用途を限定しておきましょう。

見落としがちなのが、商品コピーや広告の作成です。
特に、医薬品、医療機器、健康食品、化粧品を扱う場合は、薬機法により表現には制限がかけられています。「飲めば治る」「食べれば痩せる」などの表現は禁止されており、生成AIが作成した場合は人間が判断して却下しなければいけません。

また、薬機法に抵触せずとも過大表現は景品表示法に抵触する場合があるので、他の商品においても注意しましょう。生成AIは多くのアイデアを考えるのに役立ちますが、適切な利用においては人間の判断が重要です。

個人情報を生成AIで利用するときには規約に明記を

契約についても、注意が必要です。利用者から収集したデータを生成AIや業務で利用するには、契約書や利用規約で明記しなければなりません。
契約は利用者と企業間による個別の取り決めなので、一定の自由はあります。しかし前述の個人情報保護など法律の遵守が前提です。さらに企業が一方的に優位となる条項を契約に盛り込むなど、法律上では問題なくとも、解釈が曖昧になりやすいグレーゾーンを悪用した契約は後々に問題視されるでしょう。

また、ここまで紹介した法律や契約の遵守は、日本における運用を想定しています。ヨーロッパでは「GDPR」という独自の規制があるので注意しましょう。また、ChatGPTを提供するOpenAI社に準拠する法律も、アメリカのカリフォルニア州法となります。サービス提供元と事業を展開する国によって事情は異なるので、海外展開の際はよく確認しておくようにします。

さらに、ChatGPTを使用する場合には特別な注意が必要です。ChatGPTに質問や指示を出す場合に入力された、文章・画像・データなどの情報は、ChatGPTの開発運営元であるOpenAI社に送信されます。そしてそのデータはChatGPTの学習に使われる場合があります。
実は、この点はChatGPTの利用規約や設定画面にも明記されていますが、見落とされやすいポイントです。もしもChatGPTへの指示として機密情報や個人情報を入力した場合、情報漏えいとされる場合があるのです。また、悪意ある第三者がOpenAI社の情報を不法に盗み見る可能性も否定はできません。OpenAI社は情報漏えい対策を十分に行っており、一定期間経過後に収集したデータは削除されますが、前提として個人情報や機密情報はChatGPTに入力しないようにしましょう。

社内のガイドラインは「空気を読んで」検討を

法的には明記されていない項目でも、取引先など関係者の感情をいたずらに害するような事柄は避けていかなくてはなりません。
例として、病歴や信仰などプライバシーに大きな影響があるデータの扱いには注意しましょう。こうした情報は差別やハラスメントにつながる可能性があるからです。

何がプライバシーにあたるのか、感情を害する可能性があるのかは読みづらい面がありますが、社内でよく検討のうえ、ガイドライン化することが必要です。

例えば、イラストレーター向けの商品やサービスを扱う企業が広告でイラスト生成AIを利用すれば、顧客層の中心であるイラストレーターに対する価値を軽視したとして反発を招くでしょう。法律や契約上で問題がなかったとしても、自分たちの仕事を奪い、絵を模倣すると考える生成AIに対して、反発するのも不思議ではないのです。

このように生成AIを配慮がないまま無節操に利用することは、顧客や取引先の反発を招く場合もあります。いわゆる「空気を読む」ことが求められるでしょう。法令遵守や適切な契約はもちろん、人々の感情における配慮も求められるでしょう。「技術的に可能な事」と、「利用者や社会が反発を抱くこと」の境界線は曖昧です。このような時代や感情の機微を読むことは、知見のある人間でなければ務まりません。あなたの会社が保有するデータは資産でもあり、預ける事に対する信頼でもあります。データ活用において成否を分ける存在となるCDOの役割は、今後より重要になるでしょう。