生成AIを仕事で使うために注意すべきポイント5選
最初に目次置いときます!
日々マーケティングでAIを活用している須賀です。
今回は、楽しい話題というよりも、やや堅めだけれどセキュリティやリスクなどの重要なテーマです。
文字ばかりでほぼビジュアルもありません!(笑)というわけで、最初に目次を設けました。
マーケッターの皆さんをはじめに興味のある方は、本日も少しお付き合いください。
AIで劇的に仕事の効率が上がった!けれど、どこまで使っていいか不安
生成AI時代を生き抜くみなさま、お疲れさまです。
激流ですよね、すっごい流れが早すぎて情報量が多すぎて、たまに溺れそうになるぐらいに。
でも、業務としての活用がうまくいけば、このようにコラムを書く時間もちょっとできてきたりして。(実際に私の体感では、仕事の業務作業時間が1/5~1/10ぐらいになっています。その分、自分が考える幅自体が飛躍的に向上できてる感じもします)
AIと人との違いの特徴のひとつに「忖度(そんたく)」が無い点が挙げられるかと思います。
極論、「一番○○に適してる生成AIはなに?」と聞いてみると、その調べてる生成AI自身を挙げてきそうですが、そこは公平にこういう面で~は優れていますという判断をしてくれます。
判断するためのまとめの資料化など、AI生成したものを鵜呑みするのはまだ不安なので、ファクトチェックなどを入れ、引用してきている情報ソースのチェックはしていきます。
(精度は上がってるので割と修正しないといけない点も減ってきてるとはいえ、やはり未だこのチェックに関しては自分で行っています)
そんな超便利な生成AIですが、気を付けたいのは、AIに何でもかんでも情報を入れるとのはマズいということ。その概念が存在していて、まだこのルール制定が定まってない会社さんも多いため、「使えない」「使っちゃダメな気する」と何となく消極的になっている方も多いのではないでしょうか?
でも、世の中のあらゆるところで生成AIがこんなにも進んでいる中、そこに乗り遅れることへの不安を煽るようなYoutube動画などを見て本当に大丈夫なのか...と、葛藤と戦う苦悩。そんなお悩みに、心中お察しいたします。
まずは、データとしてアップするものがリスクなのかを整理します
...って、そんな整理すらも、AIに訊いてみるといいですよ!!
どうせ自分で色々と調べるぐらいなら代わりにまとめてもらいましょう。
では、さっそくプロットを出してみます。
さくっと出てきたものが長かったので、この後にまとめてもらいました。
1.セキュリティリスクへの対策
企業が生成AIを導入する際の最大の懸念は「機密情報の漏洩」です。社内の重要なデータをAIに入力すると、そのデータが外部サーバーに保存され、他の利用者の出力に現れる可能性があります。
機密情報としての漏洩リスク。これが一番企業が促進しづらく、管理しにくいと感じるポイントかもしれませんね。
では、機密情報というものが何に該当するのか?
企業ではPマークなどの研修をされていると思うので、それはすでにご存知の方も多いと思いますが業界、業種、サービスによってその範囲は大きく変わりますよね。
そこで、改めて機密情報がどんなものだっけ?という事で生成AI(最近、自分の生成AIに名前を付けている方も多いらしいと聞き、自分も名前を付けてみようかと思ってたりします)に挙げてもらいました。
(これってどうだっけ?の確認にも良いかもしれませんが長いのでざっと見ぐらいにしてください。)
【製品開発情報関連の機密情報】
- 新製品の設計図・仕様書
- 製造工程・プロセス技術
- 品質管理手法
- 研究開発の実験データ
- 特許出願前の技術情報
【ノウハウ・技術情報の機密情報】
- 独自の製造技術
- ソフトウェアのソースコード
- データベース設計
- アルゴリズム・計算式
【顧客情報の機密情報】
- 顧客リスト・連絡先
- 取引条件・契約内容
- 顧客の購買履歴・嗜好データ
- 営業活動の記録
【市場戦略の機密情報】
- 価格設定戦略
- 販売計画・目標
- マーケティング戦略
- 競合分析結果
【財務情報の機密情報】
- 未公開の財務データ
- 予算計画・収益予測
- 投資計画
- 資金調達計画
- 原価構造
【戦略情報の機密情報】
- 中長期経営計画
- M&A・買収計画
- 新規事業計画
- 組織再編計画
【従業員情報の機密情報】
- 個人情報・履歴書
- 給与・賞与体系
- 人事評価結果
- 採用計画・基準
【組織運営の機密情報】
- 内部統制システム
- リスク管理体制
- 監査結果
【契約・法的情報の機密情報】
- 重要契約書の内容
- 法的リスク情報
- 訴訟関連情報
- コンプライアンス違反事例
【IT・セキュリティの機密情報】
- システム構成・設計書
- セキュリティポリシー
- アクセス権限設定
- 脆弱性情報
...あれ?使いたいと思ってる情報、機密情報じゃないかしら...?
そう思われたあなた、多分、正解です。
結局、何かしらの目的として業務で生成AIを利用しようとする際は、上記のどこかの部分で関わる可能性が非常に高いです。
ただし、特に注意すべきは「個人情報の取り扱いや、顧客情報」「財務情報」「技術情報」などは特に注意が必要であるといわれています。
そのため、「情報の入力に際してこれは大丈夫か?」という点をきちんと確認しておくことが重要です。
そして、仕事で使う場合に最も注意して欲しいのは、生成AIとして「オプトアウト設定ができるか」という点。これの有る無しで、業務として利用するセキュリティリスクはかなり軽減できると思います。(記事を書くライターはそこまでしなくても良いかもしれませんが、業務として要件定義などを生成AIなどで利用する方は必ずこれを設定しておくべきだと思います)
上のような設定ですね。
(生成AIによって画面は異なり、生成AIの種類やプランによって設定できるもの、できないものがあります)
マーケティング資料などを作る時には、対象となるサービスを指定していく事が精度の高い施策構築に必要不可欠になるため、データ収集と設計をする上でこういった設定が必要です。
(あくまでもWeb上に出ている内容で収集してきて資料化するなら特に気にする事は無いかもしれませんが)
生成AIがAIエージェントとなっている理由は、その収集してきた情報から予測、考察、検討などを踏まえて情報のアウトプットを行う事ができる点です。
単純にWeb上の情報をまとめるだけでは無いからこそ、その後のアプローチ部分が外部に出ないよう気にしておく必要があるのです。
その他、気にしておく点は以下のポイントです。
・社内データの入力禁止ルールの策定
・オンプレミス型AIサービス(※)の検討
・入出力ログの管理・監視 IPA生成AIガイドライン
こういう方法があるよという視点で列挙したので、みなさまの会社としてどのぐらいセキュリティレベルを担保するか議論がないと始めれないなど、障壁になる場合は難しいかもしれませんが、「オプトアウト設定」と「社内データの入力禁止ルール」などはある程度まとめておいた方がいいですね。
自社内にサーバーを設置し、AIを構築・運用するオンプレ型AIサービスは、確かにセキュアであるのですが、データソースとしても非常に膨大な量を流していかないと使えるレベルにするにはなかなか困難な気がします(実際にうちでもチャレンジしております)
2.情報の信頼性確保
生成AIはハルシネーションと呼ばれる現象により、事実に基づかない情報をもっともらしく出力することがあります。これにより企業の意思決定に重大な影響を与える可能性があるため、グラウンディング技術の活用、複数の情報源との照合、人間による最終確認の必須化が不可欠です。特に重要な業務では、RAG(検索拡張生成)などの技術を用いて、信頼できる内部データベースに基づいた回答生成を行うことが推奨されます。
定義: AIの幻覚(ハルシネーション)とは?
AI、特に大規模言語モデル(LLM)が事実と異なる情報や存在しない情報を、あたかも真実であるかのように自信を持って生成する現象です。参照元: Zenn
なるほど。
「情報としてAIが言ってるから正しいという事ではない」という部分を、どれだけ根拠を出せるかが重要だということです。
生成AIによっては、この出力した内容を「ファクトチェック」として確認する機能もあり、そのファクトチェック元の情報ソースなど提示してくれます(元ソースも確認して、信用性が高いかどうかの判断が必要)。
最終的には人が判断し、決定する。そのための根拠の部分として、いかに精度の高い情報を集め、判断として的確なものを出すか。
逆にいうと、判断情報は正確かつ複数選択肢があった方がいいし、人が時間をかけるのはその決断の部分にあるのかもしれません。
対策ポイントとしては以下になります。
・複数の情報源との照合
・人間による最終確認の必須化
・RAG(検索拡張生成)の活用
3.法的コンプライアンスの遵守
生成AIの利用には、著作権侵害や個人情報保護法違反などの法的リスクが伴います。AIが学習データとして使用した著作物の権利関係や、生成物が既存コンテンツに類似していないかの確認が必要です。また、個人情報を含むデータの処理についてはGDPRなどの国際的な法規制への対応も求められます。これらのリスクを回避するため、法務部門との連携体制構築と、生成物の権利関係の事前確認プロセスの確立が重要です。
まぁ、この辺りは生成AIだからということだけではなく企業として徹底されている事ですよね。
「Pマーク」や「ISMS」(弊社は両方取得済)としてのルールも追加される傾向にあるのではと思います。
後は、使用用途としては契約書関係の管理もデータとして格納した方が、後の確認もAIチャット形式で確認できるのではないかと思いますが、このようなことを実装するならかなりクローズドな環境でやる必要があると思うので、オンプレミスの環境(このクラウド全盛期に逆行するような(笑))でやらないといけないなど、考えないといけない部分は多くありますよね。
対策ポイントはこちら。
・引用元の明記要求
・法務部門との連携体制構築
4.組織的ガバナンス体制の構築
効果的な生成AI導入には、段階的なアプローチと包括的なガバナンス体制が不可欠です。スモールスタートでのテスト運用から始まり、限定的な業務領域での実証実験を経て、段階的に適用範囲を拡大することが推奨されます。同時に、AIガバナンス委員会の設置、リスク管理責任者の任命、利活用ガイドラインの策定、そして継続的なユーザー教育プログラムの実施により、組織全体でのAI活用能力向上とリスク管理の両立を図ることが成功の鍵となります。
まぁ、こういう事ですよね。
全てがここに集約されるかもしれませんが、「各社ガイドラインと利用促進の加速はよりスピーディーに行わないといけない」と、秒速で進化するAI環境に取り残される不安と焦る気持ちがあるかもしれませんね。
ですが、いきなり完璧を目指すことではなく「スモールスタート」でテスト運用をしながら、この部分はルールを決めるなど、自分たちで把握していく事が一番効率がいいかもしれません。
恐らく「AIリテラシーの徹底」が一番肝になると思います。
そして、何より自分だけが理解して実施しているだけではなく、周りも含めた周知と共通認識を作っていくことが大切です。そしてそれが、ガバナンス体制の第一歩目なのかもしれません。
5.まとめ:生成AI導入のファーストステップ
まずは「小さく始める」ことから
生成AIの導入で最も大切なのは、いきなり大きく変えようとしないことです。まずは限られたチーム(例:マーケティング部の一部)で、リスクの少ない業務(メール文案作成や資料の要約など)から試してみましょう。この「お試し期間」で、実際にどんな効果があるか、どんな問題が起きるかを肌で感じることができます。
私のチームとしても先ずは何ができるのか、情報収集としての活用から始めてみて、そこから「これならこんな使い方ができるかも?」というフェーズに移行しいきました。
こういったことに関して、「興味があってどんどん活用してみたい!」というイノベーターやアーリーアダプターと呼ばれる人たちにとっては非常に有用な環境になっていると感じます。
先ずはそんな人たちのグループを作り共有していく事、リスク確認をする事から始めていくスタンスが一歩目になるかと思います。
まとめは、この記事のお題「注意すべきポイント5選」をピックアップしました。
スモールスタート後、アクションを考え整理するための参考に役立ててもらえると幸いです。
実践すべき5つの必須アクション
いきなり全社展開せず、限定的な業務から開始し、リスクを評価しながら拡大する
2. 利活用ガイドラインの策定
入力禁止事項、適切な使用方法、生成物の取扱いルールを明文化する
3. 技術的セキュリティ対策
オプトアウト設定、ログ管理、多層防御システムの実装
4. 継続的な教育・研修
全従業員のAIリテラシー向上とセキュリティ意識の醸成
5. 法務・コンプライアンス体制
著作権、個人情報保護法への対応と定期的な法的リスク評価
やっぱり、堅苦しい話は長いし読みにくいですよね。
結局、このテキストを読んでも会社として何から始めたらいいか微妙だな...。って方はお問合せください(笑)
AIの利活用やガバナンスなどを一緒に作っていくお仕事も進めてまいります!
-
資料請求
ヨリミルのサービス資料をダウンロードいただけます。
ノウハウをお役立ち資料として無料配布しています。 -
無料相談
課題感が明確でなくても構いません。
まずはお気軽にご相談ください。 -
メルマガ登録