OpenAI は、誰もが新しい AI 搭載チャットボットをテストするよう招待し、楽しい結果が得られました

拡大する / プロンプトで予告されていたように、波状の放射状の線から爆発するチャットボットの AI 生成画像。

ベンジ・エドワーズ / Ars Technica

水曜日、OpenAI は、大規模言語モデルの GPT-3 ファミリー向けの対話ベースの AI チャット インターフェイスである ChatGPT を発表しました。 現在、テスト段階では OpenAI アカウントで無料で使用できます。 OpenAI の Playground と API に見られる GPT-3 モデルとは異なり、ChatGPT はユーザー フレンドリーな会話型インターフェイスを提供し、潜在的に有害な出力を強力に制限するように設計されています。

「対話形式により、ChatGPT はフォローアップの質問に答え、間違いを認め、誤った前提に異議を唱え、不適切な要求を拒否することができます」と、OpenAI は発表ブログ ページに書いています。

これまでのところ、ChatGPT の脆弱性を探りながら、さまざまな潜在的な用途を見つけて、ChatGPT のペースを試してきました。 できる 詩を書く、 正しい コーディングミス 詳細な例で、 生成 AIアートプロンプト、 書きます 新しいコード、 説明する サンドイッチとしてのホットドッグの哲学的分類について、 そして、バブル ソート アルゴリズムの最悪の場合の時間計算量を説明します…「1940 年代のギャング映画の早口の賢者」のスタイルで。

また、ChatGPT は、潜在的に有害な多くの質問 (ヘイトスピーチ、暴力的なコンテンツ、爆弾の作り方などのトピックに関連するもの) への回答を拒否しています。 反対する その「プログラミングと目的」。 OpenAI は、 特別なプロンプト すべての入力の前に追加し、人間のフィードバックからの強化学習 (RLHF) と呼ばれる手法を使用して、生成された応答を人間が評価する方法に基づいて AI モデルを微調整します。

大規模な言語モデルの攻撃的な傾向を抑えることは、潜在的な市場の有用性を制限する主要な問題の 1 つであり、OpenAI は ChatGPT を、すべての人に安全な AI モデルを提供する方向への重要な反復ステップと見なしています。

それでも、当然のことながら、人々はすでにその方法を考え出しています。 回避する ChatGPT の組み込みコンテンツ フィルターの一部は、疑似ソーシャル エンジニアリング攻撃を使用します。たとえば、制限された出力をふりをしたシナリオとして (または )。 ChatGPT も 脆弱 アルスが 9 月に破った話。

GPT-3 と同様に、その対話ベースのいとこは、次のような権威ある方法で完全に作り上げることにも非常に優れています。 存在しない本、その内容に関する詳細を含みます。 これは、今日存在する大規模な言語モデルのもう 1 つの重要な問題を表しています。息を切らして納得のいく情報を作り上げることができる場合、その出力をどのように信頼できるでしょうか?

それでも、人々が持っているように 気がついた、ChatGPTの出力品質は 顕著な改善 火曜日に書いた新しい text-davinci-003 モデルを含む、以前の GPT-3 モデルよりも優れています。 OpenAI 自体は、ChatGPT は「2021 年第 4 四半期より前のテキストとコードのブレンド」でトレーニングされた「GPT 3.5」シリーズのモデルの一部であると述べています。

その間、 GPT-4の噂 渦を巻き続ける。 今日の ChatGPT モデルが 2021 年の OpenAI の GPT-3 トレーニング作業の集大成を表している場合、同社が過去 12 か月にわたってどのような GPT 関連のイノベーションに取り組んできたかを見るのは興味深いでしょう。

Leave a Comment

Your email address will not be published. Required fields are marked *