※本ポストは2023年7月12日に米国で公開された“AI, Without the Angst – How to Use It Without Losing Your Customers’ Trust”の翻訳版です。本ポストの正式言語は英語であり、その内容および解釈については英語が優先されます。
今では当たり前すぎて信じられないですが、かつて消費者は電子商取引に対して警戒心を抱いており、個人情報や金融情報のセキュリティに対する懸念から、現在では年間1兆ドルのビジネスに成長した電子商取引を広く受け入れるまでには、信頼のギャップが存在しました。
現在では、ビジネスと顧客が生成AIの出現をどれだけ広く、成功裏に受け入れるかの中核となるのは、信頼です。一部の企業は、バイアスの排除、透明性の提供、顧客データの100%保護といった困難な作業を行わずに、自社製品をAI化しています。しかし、ますます多くのリーダーが認識しているように、まさにその作業こそが、人々が AI を信頼するかどうかの違いを生むのです。
「私たちのすべての部門は、生成AIの使用方法について素晴らしいアイデアを持っています。私は創造性を抑制したくありませんが、それによって私たちのバックドアが開かれたままになるのであれば、最高のものも望んでいません」とAAAのEVP、COO、CTOであるShohreh Abedi氏は述べて(英語)います。
「ChatGPT の LLM ってハルシネーションや機械学習バイアスは大丈夫だっけ? 」
この一文を読んで意味が分からなかった方必見、生成AIに関係する用語まとめ集を作成しました!
増え続けるAI用語のキャッチアップにご活用ください。
AIシステムの構造に安全対策を組み込む企業と提携することです。なぜこれが重要なのでしょうか?
SalesforceのPlatform部門のEVPでGMのPatrick Stokesは、AI Cloudを使用することで、あなたの会社のデータを漏らすことなく、AIによる生産性向上を活用できると説明しています。AI データのプライバシーには、さまざまな保護手段が必要だと同氏は述べています。
ダイナミックグラウンディングは、正確かつ最新の情報を使用して LLM の答えを導き、事実のデータと関連するコンテキストにモデルを「グラウンディング」します。これにより、AI のハルシネーション(幻覚)や、事実・現実に基づかない誤回答を防ぐことができます。
データマスキングは、機密データを匿名化されたデータに置き換えることで、個人情報を保護し、プライバシー要件に準拠することができます。データ マスキングは、AI プロンプトを作成するときに、名前、電話番号、住所などの個人を特定できる情報をすべて確実に削除する場合に特に役立ちます。
有害性検出は、ヘイトスピーチやネガティブなステレオタイプなどの有害なコンテンツをフラグ付けする方法です。これは、機械学習(ML)モデルを使用してLLMが提供する回答をスキャンし、スコアを付けることで行います。これにより、モデルから生成されるものがビジネスの文脈で使用可能であることを確認します。
ゼロリテンションは、Salesforceの外部に顧客データが保存されないことを意味します。生成AIのプロンプトと出力はLLMに保存されず、LLMによって学習されません。それらは単に消えます。
監査は、システムが期待通りに動作しているか、バイアスがなく、高品質のデータがあり、規制および組織のフレームワークに沿っているかを常に評価します。監査はまた、プロンプト、使用されたデータ、出力、エンドユーザーの修正を安全な監査トレイルに記録することで、組織がコンプライアンス要件を満たすのに役立ちます。
安全なデータ取得は、Einstein(世界初のCRM向け生成AI)が動的なグラウンディング プロセスの一環として、Data Cloudを含む Salesforce からデータを取得する方法です。これにより、コンテキストを構築するために必要なデータを取り込むことができます。すべてのやり取りにおいて、ガバナンス ポリシーと権限が適用され、許可を得たユーザーのみがデータにアクセスできるようになります。
AccentureのCEOであるJulie Sweet氏は、これらのようなプライバシーとセキュリティの保護手段がテクノロジーに直接組み込まれている場合は、リスクは軽減されると述べています。
生成AIの登場は、たちまち人々の関心を集め、さまざまな用途が取りざたされています。Salesforceの無料オンライン学習プラットフォームであるTrailheadでAIについて学び、必要なスキルを習得するためのコンテンツを紹介します!
透明性があり、責任ある、安全なAIを確保するには、世界中のあらゆるテクノロジーをもってしても不可欠です。その実現には企業トップから始まる優れたガバナンスと、人間によるAIシステムの監督が必要なのです。
KPMGのレポート(英語)によると、倫理的かつ責任ある使用をサポートする保証メカニズムが整備されている場合、回答者の 75% が AI システムをより信頼する傾向にあることがわかりました。
レポートによれば、「これらのメカニズムには、システムの精度と信頼性の監視、AIの行動規範の使用、独立したAI倫理審査委員会による監督、説明可能なAIと透明性のあるAIの基準の遵守、AI倫理認証の取得によるガバナンス原則の確立が含まれます。」
Accentureでは、取締役会の監査委員会が、同社の55,000人の従業員のためのAIコンプライアンスプログラムを監督しています。
Sweet氏は、「社内の誰かに電話して、AI がどこで使用されているのか、リスクは何か、リスクはどのように軽減されているのか、責任の所在は誰なのかを教えてもらうことができないのであれば、まだ責任ある AI を持っていないことになります。」と述べています。
金融サービスやヘルスケアといった規制の厳しい業界のリーダーたちは、顧客の信頼と安全性を犠牲にすることなくAIをどのように実装するかについて慎重です。これらの業界は、データプライバシーとセキュリティを危険にさらさないユースケースを模索する必要があります。
マーク・ベニオフは最近、生成AIは「生涯で最も重要なテクノロジー」である可能性があると述べました。確かに、生成AI技術は消費者行動、業界、ビジネスモデルを永遠に変えた電子商取引を、小さなジャガイモのように見せるかもしれません。マッキンゼーは最近、生産性に対する AI の影響が世界経済に年間数兆ドル増加する可能性があると推定しました。しかし、それを実現するには、これらのシステムに対する高度な信頼が必要です。
「信頼できるAIは重要です」とKPMGはそのレポートの中で述べています。「人々がAIシステムを信頼できると認識し、それらを信頼する意志があるならば、人々はAIシステムをより受け入れる可能性が高まります。」
誰もが注目する生成AI技術をCRMと組み合わせて、業務効率を高め、お客様の心に響く体験を提供する方法を紹介します。
Lisa Lee
Contributing Editor
Lisa Lee はSalesforceの寄稿編集者として25 年以上にわたり、テクノロジーとそのビジネスへの影響について執筆してきました。Salesforce に入社する前は、Forbes.com などの出版物で受賞歴のあるジャーナリストでした。