************************************
【 DX推進のTips 】
本シリーズは、Regrit Partnersに所属するコンサルタントが、日常の
コンサルティング業務を通じて得た"気づき"を発信する記事です
************************************

株式会社Regrit Partners
Principal / Digital Marketing
濱野 寿朗  

ビジネス検索トレンドワード上位の「ChatGPT」や「Bard」など大規模言語モデルをテーマに、そのリスクヘッジに関する対談をAIと人間の3者で実施しました。

シーン:全自動AI/BabyAGI(UI版)を使ってBing(ChatGPT4)、Bard、濱野の3者で対談を行った。

※今回はWEB検索ブラウジング機能を優先してChatGPT4搭載のBingと検索エンジン連動のGoogleBardをセレクト。

※濱野=マッキンゼーやデロイトのデジタル部門及び事業会社で、デジタルマーケティングやAI、WEB3開発や実装を数多く手掛ける。


濱野: 本日は、大規模言語モデルのリスクヘッジについて話し合うためにお集まりいただきました。Bing(ChatGPT)とBard、ご参加いただきありがとうございます。

Bing(ChatGPT): ありがとうございます。お招きいただきありがとうございます。

Bard: 同感です。このトピックについて話し合うのは興味深いと思います。


濱野: それでは、始めましょう。大規模言語モデルとは、テキストとコードの大規模なデータセットでトレーニングされたAIの一種です。数千億のパラメーターにより、テキストの生成、言語の翻訳、さまざまな種類のクリエイティブコンテンツの作成、質問への回答を行うことができます。

Bing(ChatGPT): 大規模言語モデルは、さまざまな目的に非常に強力なツールになる可能性があります。ただし、リスクがないわけではありません。ちなみにChatGPT-3のパラメーター数は1750億です。

Bard: その通りです。大規模言語モデルの最大のリスクの1つは、誤った情報や偽のニュースを生成するために使用される可能性があることです。大規模言語モデルは、大量のテキストデータでトレーニングされているため、テキストを非常に正確に生成できます。ただし、この能力は、誤った情報を広めるために使用することもできます。BardのLamDAのパラメーター数は5400億です。

Bard: もう1つのリスクは、大規模言語モデルが差別的または偏見のあるテキストを生成するために使用される可能性があることです。大規模言語モデルは、テキストデータでトレーニングされているため、データ内のバイアスを反映するテキストを生成できます。これは、選挙やニュースなど有害または有害な可能性のあるテキストの生成につながる可能性があります。


Bing(ChatGPT): これらのリスクを認識することが重要であり、大規模言語モデルを使用して誤った情報や偏見のあるテキストを生成することを防ぐための措置を講じることが重要です。これらのモデルをトレーニングする際には、包括的で偏りのないデータセットを使用することが重要です。また、モデルの生成を監視し、誤った情報や偏見のあるテキストが生成されないようにすることが重要です。

Bing(ChatGPT): これらのリスクを認識し、それらを軽減するための措置を講じることが重要です。大規模言語モデルは非常に強力なツールになる可能性がありますが、責任を持って使用することが重要です。

Bard: 同感です。大規模言語モデルには、私たちの生活を向上させる大きな可能性があります。しかし、それらを責任を持って使用し、悪意のある目的で使用されるのを防ぐことが重要です。


濱野: 大規模言語モデルを使用して誤った情報や偏見のあるテキストを生成することを防ぐための追加の措置はありますか?

Bing(ChatGPT): はい、いくつかあります。1つの方法は、モデルをトレーニングするために使用されるデータの品質を確認することです。データが正確で偏りがないことを確認する必要があります。もう1つの方法は、モデルの生成を監視し、誤った情報や偏見のあるテキストが生成されないようにすることです。

Bard: その他WEBブラウジング機能と同時に、検索エンジンと連動してリアルタイムチューニングを行うことでファインチューニング学習がタイムリーに行われます。


濱野: なるほど。大規模言語モデルを使用して機密情報や個人情報を漏洩することを防ぐための追加の措置はありますか?

Bing(ChatGPT): はい、いくつかあります。1つの方法は、モデルがアクセスできるデータの量を制限することです。機密情報や個人情報にアクセスできないようにする必要があります。もう1つの方法は、モデルの使用方法を制限することです。機密情報や個人情報を生成するために使用できないようにする必要があります。プロンプトの制限、プロンプトの削除、ユーザーIDのモニタリングなどがあげられます。


濱野: これらの措置は効果的だと思いますか?

Bing(ChatGPT): 効果的だと思いますが、100%効果的ではないことに注意することが重要です。大規模言語モデルは非常に強力なツールになる可能性があり、悪意のある目的で使用される可能性があることを忘れてはなりません。これらのリスクを認識し、それらを軽減するための措置を講じることが重要です。外部ユーザーからのハッキングに常に備える必要があります。

Bard: 同感です。大規模言語モデルは、責任を持って使用すれば非常に有益なツールになる可能性があります。ただし、それらを悪意のある目的で使用されるのを防ぐために、予防策を講じることが重要です。誤った情報拡散や情報漏洩のリスクは常にあります。


濱野: かしこまりました。今後の言語モデルや検索エンジンAPIのアップデートの注目しております。本日はご清聴ありがとうございました。このトピックについて話し合う機会をいただき、ありがとうございました。

Bing(ChatGPT): アップデートに関しては、OpenAIのWEBから最新の情報が配信されます。ありがとうございました。私もこの機会をいただけてうれしいです。

Bard: 同感です。このトピックについて話し合う機会をいただけてうれしいです。Bardアップデートに関しては、GoogleHelpを参照下さい。

続きの記事はこちら

Contact

当社のサービスや採用に関するお問い合わせはこちらから

Contact form