急速に進化する生成AI。人間と遜色ない意思疎通も実現
生成AIの活用を通じて、業務効率化や生産性向上を実現する企業事例が着実に増えてきた。ここでは、そうした“意外な業務活用”のケーススタディーを紹介していきたい。その前にまずは、「生成AI」という存在について少し整理していこう。
最近では、「生成AIにも聞いてみよう」とスマホのChatGPTアプリなどで質問文を入力してみる方法もごく普通になってきた。生成AIは、友だちや先生など、人間に聞いたときのように文章で答えてくれて、分かりやすく、親しみやすいという話もきく。一方で、誤った情報を返す、学習データにはない架空の情報を創作する(「ハルシネーション」と呼ばれる)などの問題があるので慎重に利用する必要もある。
そもそも生成AIとはテキストなどでの質問に対し、文章、画像、動画などのメディアを応答として生成する「AI」(人工知能)の一種。2022年11月末、米OpenAIが「ChatGPT」を公開すると大きな話題となり、12月にはユーザー数が100万を超えたという。2023年2月、有料版の「ChatGPT Plus」、3月には「ChatGPT API」が公開された。なお、APIはプログラムなどで活用できるため、生成AIサービスの利用範囲が画期的に拡大した。
ChatGPTより少し前には、米Midjourneyの「Midjourney」、英Stability AIの「Stable Diffusion」など内容をテキストで入力してAIが画像を生成する「画像生成AI」も話題となった。生成画像の緻密さ・美しさ、品評会で入賞した、などがニュースで大きく取り上げられ、悪用の可能性や著作権問題なども取りざたされつつ、広く使われるようになった。OpenAIも「DALL・E」という画像生成AIサービスを提供しており、最新の「DALL・E3」はChatGPT上から利用できる。
各社が独自の生成AIの開発や既存の生成AIを利用したシステム開発にしのぎを削る中、2024年5月13日、OpenAIが新しい生成AIモデル「GPT-4o」の提供を開始した。「o」は「omni(オムニ)」の略で「すべての」という意味で、OpenAIは「音声、視覚、テキストをリアルタイムで判断できる新しいフラッグシップモデル」と称している。ChatGPT上で使えて、テキストの他の音声や画像、PDFなどによる入力・出力が可能(「マルチモーダル」)。応答速度が大幅に向上、まるきり人間同士のような会話を行うことができるという。
ところで、ChatGPTにおいて初期の生成AIモデルである「GPT-3.5」では2022年1月まで、次のモデル「GPT-4」は2023年12月までの情報の学習であるなど、最新事柄に疎い傾向があった。しかし、GPT-4oは、インターネット上の情報も検索することで、最新の情報にも対応できて使い勝手が大きく上がっている。筆者が使ってみたところ、直近のスポーツの結果や経過においても、ほぼ的を射た答えが返ってきて、「これは使える」と確かな手ごたえを感じた。
活用のコツは、「課題の抽出と明確化」
文章や画像、音楽、動画、プログラミングスクリプトなどを生み出せる「生成AI」。ビジネスの利活用を考える上でも大きな力になるだろう。例えば、業務での利活用としては、チャットインターフェースによる利用者との会話や、定型業務の自動化・効率化、クリエーティブ作業の補助、広告コンテンツの低コスト作成、非エンジニアによるスクリプトやプログラム作成など、さまざまな用途が想定される。
この点、業務での生成AI利用で大切なのは、業務上の課題を抽出・明確化すること、そして、どの問題解決に生成AIを使うかを判別することだ。これには、デジタル庁「行政での生成AI利活用検証から見えた10の学び」が参考になる。この文章は「2023年度 デジタル庁・行政における生成AIの適切な利活用に向けた技術検証を実施しました」に記されている技術検証により得た知見をまとめたものだ。この内容については、こちらの記事で詳しく解説しているので参考にしてほしい。
それでは、以下で企業における生成AI活用のケーススタディーをいくつか見ていこう。
社内文書の検索に、生成AIの要約機能を活用…
A社は、2023年9月から生成AIを用いた社内情報検索システムを主にR&D(研究開発)部門の社員を対象に試験導入した。以前は、社内の技術文書を検索する際、内容確認のための流し読みが必要で、時間がかかっていた。そこで技術文書のデータを生成AIで100文字程度に要約、検索結果とともに表示するようにすることで、資料データが検索の目的と合致するか一目で確認でき、検索時間が削減されたという。
システムは、PDFやPowerPoint、Wordなどのさまざまな形式の資料データに対し、ファイル名の他ファイル内の文章、画像を含めて複合的な検索が可能な一括検索システムに加え、前述のごとく生成AIの要約機能で検索を効率化、さらにパブリッククラウドを利用することで、情報が外部に漏れない環境を構築している。主にR&D部門の社員を対象だが、将来的には全社およびグループ社内に点在している技術情報を集約・整理し、効率的に取得しやすくすることで、グループの知見を生かした商品開発の強化や業務効率化を目指す。さらに今後、商品開発だけでなく、全社員の業務効率化を目指して、さまざまなシステムへの生成AIの導入を検討していくという。
社内AIチャットをグループ社員1万5000人に提供開始
B社は、パブリッククラウド上で提供される生成AIサービスを活用したAIチャットサービスの運用を2023年4月からグループ社員約1万5000人向けに開始した。B社は全社戦略に基づき、2021年より全社横断的にDXを推進してきた。
ChatGPTについても現場開発者と共に活用を検討、議論を重ね、現場の開発者・企画者が安心・安全な環境でAIチャットサービスを検証できる環境を整備することを目的に、パブリッククラウドを活用した自社特化のAIチャットを開発したという。社員はイントラネット上からいつでもAIチャットを使用でき、安全な環境下での業務効率化への活用や、商品開発に向けた技術活用の検証などが可能となった。この自社AIは入力した情報の2次利用をせず、クローズドな環境で外部に情報が漏えいしない仕様となっているなど、セキュリティ面に配慮している。今後は、AI活用についてさまざまな角度から議論、サービス自体の検証も重ねながら、継続的にバージョンアップを行っていく予定という。
LINEでの問い合わせ対応に生成AIを活用
通信キャリア・C社では、2024年3月からLINEでのチャットボットによる問い合わせ対応に生成AIの活用を開始した。なお、商品やサービスの使用方法や手続きなどに関する問い合わせに回答するカスタマーサポート領域において、生成AIを搭載したチャットボットの提供は国内主要企業で初めてという。
既存のチャットボットでの対応は、質問者の入力内容が長文だったり情報が不足していたりすると質問者の意図を正しく認識できないことがあり、そうしたケースが問い合わせの約3割を占めていた。そこで長文の質問については生成AIが入力内容を要約して意図を正しく認識しやすい形に整理、情報が不足している場合は生成AIが質問者に再質問を行うことで適切な回答をしやすく誘導するようにした。これらによりチャットボットによる解決率が向上、既存の対応と比較して約5分程度(従来の約2割)短縮できたという。
C社ではLINEでの問い合わせ対応において、チャットボットの応対で問題が解決できなかった場合、人間であるアドバイザーが引き継いで対応するかたちをとるが、アドバイザーでの応対開始時に生成AIがそれまでの会話を要約して引き渡すことで、アドバイザーが迅速に問題を把握、より適切な回答の提供が可能となったという。なお、アドバイザーの研修にも生成AIを導入、生成AIを相手にシミュレーションを行うことで、実際の応対に近い環境での研修が可能となり、アドバイザーのスキル向上につながっている。
生成AIを活用する上での押さえておきたい各種の注意点
生成AIはそのブームのきっかけであるChatGPTの開始から1年半に過ぎず、まだ発展途上であることと、技術は日進月歩で日々変化を遂げている、ということをよく頭に入れよう。常に最新の情報や状況を把握し、対応するのが賢いが、生成AIに対して法律や条例、利用におけるルールやガイドラインもまだまだな未整備な現状において、生成AIを安心して利活用していくには、どうしたらいいのだろうか。
生成AIを利用することによる主なリスクは大きく分けて3つある。順に見ていこう。なお、ここに挙げるリスクはあくまで「利用」に関するおおまかなもの。生成AIサービスを提供する場合や一般的に社会での悪用や危険のリスクなど、他にも多くのリスクが存在するのは言うまでもない。
1.入力した情報が漏えいする「情報漏えい」リスク
生成AIを利用の際、入力する内容に個人や企業の情報など他に知られたくない情報が含まれることがある。これらの情報をAIの学習、他者の利用の際に使われるなどで、情報が漏れる可能性がある。その他生成AIサービスではユーザーの利便性などのためログを残す機能をもつものがあり、このログが外部からの攻撃などで漏れる可能性もある。
情報漏えいのリスクは、入力データを「学習をしない」「特定のデータを二次利用しない」「ログを保存しない」など対策済みのシステムを用いることで避けられる。この情報漏えいリスクゆえに、ChatGPTなど生成AIの利用を禁止している企業もある。業務においては対策ずみのシステムのみを用い、一般的な生成AIは使用しないルールを作ることも重要だろう。
2.(情報のばらつきや間違い、学習期間による知識不足、ハルシネーションなどによる)間違った情報を利用することによるリスク
生成AIはしばしば間違った情報を生成するのは、誰しも知る事実だろう。そのうえ、同じ質問に都度異なる情報を出力するなど、情報のばらつきも大きい。そして前述のごとく、学習期間による知識不足より、最新の情報に対応できないこともある。さらに、もっともらしいうそを生成する「ハルシネーション」という現象もいまだ解決できていない。
このリスクに関しては、出力内容が正しいかどうか確認する以外に方法はないが、すべての結果を検証するのは難しいうえ、非効率となり生成AIを使う意味も薄くなる。前述のGPT-4oやBingなどWeb検索と組み合わせたサービスを用いるなども有効だが、それでも間違った情報が提供される場合はある。業務においては利用者に、間違いの可能性に対しての注意喚起を行う、ルールやガイドラインを作るなど、正しく使うためのリテラシー教育も必要だろう。
3.生成AIの生成物の利用により、他者の権利を侵害・公序良俗に反するリスク
たとえ商用利用可な生成AIサービスであっても、出力された文書や画像などが、既存のものと似通う、類似するなどで他者の権利を侵害する可能性がある。生成AIの出力物を利用する場合は、著作権、商標権、意匠権など他者の権利を侵害しないよう、注意する必要がある。なお、類似性の他、倫理的に偏った情報を出力するなどで、他人のプライバシーや尊厳を傷つける可能性もあり、これも注意しなくてはならない。
このリスクに関しては常に、生成AIで出力された文章や画像を利用する場合、他者の権利を侵害する可能性を常に意識し、類似するものがないか、倫理的に問題がないか、徹底的に調査・審査などを行い、慎重に利用する必要がある。なお、AIと著作権に関しては、文化庁による「AI と著作権に関する考え方について」が参考となる。なお、生成AIを含むAIの利活用に当たっては、4月に公開された「AI事業者ガイドライン(第1.0版)」に従う必要がある。このガイドラインは経済産業省と総務省が、生成AIの普及を始めとする近年の技術の急激な変化等に対応すべく、有識者等と議論を重ね、関連する既存の3つのガイドラインを統合・アップデートし、取りまとめたもの。詳細は経済産業省「『AI事業者ガイドライン(第1.0版)』を取りまとめました」を参考に。
生成AIの導入においては、これら生成AI利用のリスクに対して、情報システム担当者やベンダーと対応を相談しつつ進めていく必要がある。なお、業務への利用が盛んな生成AIにおいては、Webなどに事例やソリューションもうなぎ登りに増えつつあり、自社に合ったものを導入していくと良い。生成AIにおける動向は前述のごとく飛躍的な進化・変化を遂げている。常に最新情報と最新の状況をとらえ、前向きに業務に取り入れていきたい。
※掲載している情報は、記事執筆時点のものです