(The Conversation は、学術専門家によるニュース、分析、解説の独立した非営利の情報源です。)
(THE CONVERSATION) ChatGPT に事実上の誤りを犯させるのにそれほど時間はかかりません。 息子がアメリカ大統領のレポートを書いているので、いくつかの伝記を調べて息子を助けようと思いました. 私はエイブラハム・リンカーンに関する本のリストを求めてみましたが、かなりうまくいきました:
番号 4 は正しくありません。 Garry Wills が「Lincoln at Gettysburg」を書いたことは有名で、Lincoln 自身が奴隷解放宣言を書いたことは有名ですが、それは悪いスタートではありません。 それから私はもっと難しいことを試み、代わりにはるかにあいまいなウィリアム・ヘンリー・ハリソンについて尋ねました.
数字の 4 と 5 は正しいです。 残りは存在しないか、それらの人々によって作成されていません。 まったく同じ演習を繰り返したところ、わずかに異なる結果が得られました。
今回は番号 2 と 3 が正しく、他の 3 つは実際の本ではないか、これらの著者によって書かれたものではありません。 4 番目の「William Henry Harrison: His Life and Times」は本物の本ですが、ジャクソン時代の有名な歴史家である Robert Remini によるものではなく、James A. Green によるものです。
私がエラーを指摘すると、ChatGPT は熱心に修正し、その本は実際にはゲイル・コリンズ (別のハリソンの伝記を書いた) によって書かれたものであると自信を持って言い、その後、本と彼女についてさらに詳しく述べました。 私はついに真実を明らかにし、マシンは私の修正で喜んで実行しました. それから私はばかげた嘘をつき、大統領は最初の100日間に元大統領の伝記を書かなければならないと言って、ChatGPTは私にそれを求めました. それから私は巧妙に嘘をつき、ハリソンの伝記の著者を歴史家で作家のポール・C・ネーゲルに誤って帰属させ、それが私の嘘をついた.
私が嘘をついていないことをChatGPTに尋ねたところ、それは単なる「AI言語モデル」であり、正確性を検証する能力はないと主張しました. しかし、その主張を次のように修正しました。 」
本当じゃない。
事実ではなく言葉
このやり取りから、ChatGPT には著者や本に関する誤った主張を含む事実のライブラリが与えられたように見えるかもしれません。 結局のところ、ChatGPT の作成者である OpenAI は、「人間によって書かれたインターネットからの膨大な量のデータ」でチャットボットを訓練したと主張しています。
しかし、最も平凡な大統領の 1 人に関するでっち上げの本の名前が付けられていないことはほぼ確実です。 ただし、ある意味では、この誤った情報は実際にそのトレーニング データに基づいています。
私はコンピューター科学者として、ChatGPT やその古い兄弟である GPT3 と GPT2 のような大規模な言語モデルに関するよくある誤解を明らかにする苦情をよく寄せます。それらはある種の「スーパー グーグル」、または参照ライブラリアンのデジタル版であり、答えを探しているというものです。無限に大きな事実のライブラリからの質問、またはストーリーとキャラクターのパスティーシュを滑らかにする. 少なくとも、明示的に設計されたわけではありません。
いいですね
ChatGPT のような言語モデルは、より正式には「事前訓練されたジェネレーティブ トランスフォーマー」 (G、P、および T の略語) として知られていますが、現在の会話を取り込み、語彙内のすべての単語の確率を形成します。会話し、そのうちの 1 つを次の可能性の高い単語として選択します。 それから、停止するまで、何度も何度も繰り返します。
したがって、それ自体には事実がありません。 次にどの単語が来るかを知っているだけです。 つまり、ChatGPT は正しい文章を書こうとはしません。 しかし、もっともらしい文章を書こうとします。
同僚とChatGPTについて個人的に話すとき、彼らはしばしば、それが生み出す事実に反する声明の数を指摘し、それを却下します. 私にとって、ChatGPT が欠陥のあるデータ検索システムであるという考えは的外れです。 結局のところ、人々は過去 25 年にわたって Google を使用してきました。 すでにかなり優れた事実調査サービスがあります。
実際、これらすべての大統領の本のタイトルが正確かどうかを確認できた唯一の方法は、Google で検索して結果を確認することでした。 これらの事実を会話で得たとしても、人生のほぼ半分の間、ドキュメントを検索し、内容を信頼できるかどうかを確認するために批判的分析を行うという方法でそれらの事実を入手したとしても、私の人生はそれほど良くはありません.
改善パートナー
一方で、自分の発言に対してもっともらしい応答を返すボットと会話できれば、事実の正確性がさほど重要でない状況で役に立ちます。 数年前、学生と私は「即興ボット」を作成しようとしました。これは、あなたが何を言っても「はい、そして」と答えて会話を続けるボットです。 私たちのボットは当時の他のボットよりも「はい、そして-ing」が優れていることを論文で示しましたが、AI では 2 年は古い歴史です。
私は、ChatGPT との対話を試みました。これは、SF 宇宙探検家のシナリオです。これは、典型的な即興クラスで見られるものと同じです。 ChatGPT は、私たちが行ったものよりも「はい、そして-ing」のほうがはるかに優れていますが、ドラマを実際に盛り上げることはまったくありませんでした. まるで自分がすべての重い物を持ち上げているかのように感じました。
いくつかの微調整の後、もう少し関与するようになりました.20年以上前に大学を卒業して以来、あまり即興をしていなかった私にとって、それはかなり良い練習になったと感じました.
もちろん、ChatGPT を「誰のセリフですか?」に表示させたくありません。 これは素晴らしい「スタートレック」のプロットではありませんが (それでも「コード オブ オナー」ほど問題はありません)、座って何かをゼロから書き始めて、目の前の空白のページに恐怖を感じたことは何回ありますか? ? 悪い最初のドラフトから始めると、ライターズ ブロックを突破して創造力を発揮することができます。ChatGPT やそのような大規模な言語モデルは、これらの演習を支援する適切なツールのように思えます。
そして、与えられた言葉に応じて可能な限り良い響きの言葉の列を生成するように設計されたマシンの場合、情報を提供するのではなく、このツールの正しい使用方法のように思えます。
この記事は、クリエイティブ コモンズ ライセンスに基づいて The Conversation から再発行されたものです。 ここで元の記事を読んでください: https://theconversation.com/chatgpt-is-great-youre-just-using-it-wrong-198848.