科学者が次世代 AI の倫理について検討する

人工知能は、クリティカルマスに達したように見える科学であり、多くの新しい発表や進歩が定期的にニュースに取り上げられています。 おそらく過去 1 年間の最大の AI ストーリーは、ChatGPT AI のリリースでした。これは、AI のトレーニング方法と動作方法だけでなく、この信じられないほど強力な科学を、簡単に質問するだけで誰でも利用できるようにする方法にも革命をもたらすことを約束しています。言語。 ChatGPT がデビューしたときにレビューしたところ、誇大広告に応えただけでなく、C++ でのプログラミングからかわいいベッドタイム ストーリーの作成まで、私が求めていたすべてのことを行っており、私の最高の期待を上回っていることがわかりました。

また、休暇中に AI の画像生成コンポーネント (DALL-E と呼ばれるプログラム) を楽しんで、私の言葉と想像力だけを使用して、キュートで強力な画像の両方を生成するように指示しました。 ChatGPT と DALL-E はどちらも無料で試すことができるので、まだ試していない場合は試してみてください。

ChatGPT は、自然言語処理インターフェースを備えた、広く使用され公開されている最初の AI ですが (同社は、リリースされた最初の週に何百万人ものユーザーを獲得しました)、近い将来、他の多くの AI が登場することは間違いありません。 しかし、この新しいフレーバーの AI テクノロジは驚くべきものですが、ChatGPT だけでなく、この分野の今後のすべてのプロジェクトについて、倫理の問題も提起されます。 以前の 次の政府 コラムでは、Credo AI の創設者兼 CEO である Navrina Singh 氏に、倫理的な AI の重要性と、新しいテクノロジが助長する危険性について話しました。 これは ChatGPT がリリースされる数週間前のことだったので、彼女の警告では特にそれが考慮されていませんでした。

ChatGPT が可能性を示した今、データ サイエンティストや AI の専門家ではない一般の人々にとっても、AI 分野の他の専門家も同様に検討を始めています。 私が話をした人は皆、新しいテクノロジーに心から興奮し、感銘を受けていましたが、いくつかの懸念もありました.

今週、私はこのトピックについて 2 人の AI 専門家と話しました。 1 人目は、グローバルな AI および高度な分析企業である Fractal.ai のクライアント パートナーである Sagar Shah でした。 もう 1 人は、機械学習オペレーション (MLOps) プラットフォームである ClearML の CEO 兼共同設立者であり、世界最大級の企業の一部で使用されている Moses Guttmann 氏です。

Nextgov: ChatGPT は、AI テクノロジで何が可能かを、誰もが体験できる方法で実際に示してくれました。 しかし、そのプラットフォームだけでなく、AI の科学も複雑さと機能の面で急速に進歩していますか?

グットマン: 過去 5 年間で、学術的な概念の証明から、一般ユーザーに届くように意図的に構築された製品に至るまで、AI の大きな成長が見られたと思います。 AI の民主化への取り組みの増加に伴い、社内の研究開発の一環として機械学習 (ML) を採用する企業が増えています。 それが続くと信じています。

シャー: この分野は急速に変化しており、ここ数年でその努力の成果が見られたと思います。 より高度で強力な機械学習アルゴリズムの開発における継続的な進歩。 自然言語処理 (NLP) と、機械学習モデルに情報を提供するために使用されるデータは、テクノロジーを前進させるのに役立ちました。 また、MLOps の成長は、機械学習モデルの実験、反復、展開のためのより効率的なループを作成することで、より洗練された AI の開発に大きな役割を果たし、最終的にはより複雑な AI システムのスケーラビリティとメンテナンスの向上につながったと考えています。 最近、Fractal 研究部門の深層強化学習、量子コンピューティング、生成 AI、および神経科学により、AI の世界で次に何が起こるかについての優れた洞察が得られています。

Nextgov: ChatGPT のリリースは、本当に世界を熱狂させました。 それ以前のすべてのものと比較して、ChatGPT が特別な理由は何ですか?

シャー: 人間が書いたテキストと区別するのが難しいテキストを作成するように設計されているため、その NLP テクノロジの能力とその背後にあるチームが重要です。 しかし、ChatGPT を際立たせる主な要因は、そのトレーニング方法論に関連する人間的要素だと思います。 報酬モデル アルゴリズムを使用した、会話と人々から得られた応答による強化学習は、現在見られる自然な応答を生成する能力において重要な役割を果たしているだけでなく、その過ちから学び、時間の経過とともに会話にうまく関与できるようになります。 .

グットマン: ChatGPT が提供する主な飛躍は、本質的に、抽出可能な方法で知識を整理する機能です。 具体的には、生成 NLP モデルは、ナレッジ ベースに根ざしたコンテンツを生成する機能を持つエンティティと考えることができます。 このつながりが、彼らが首尾一貫したコンテンツを作成する理由です。 まあ、時には首尾一貫した内容。

追加の会話機能により、この知識は簡単な質問または一連の質問によって抽出できるようになりました。 具体的には、ChatGPT に質問をすると、モデルがトレーニングされたデータを理解していることを確認できます。 これはまさに、人間がお互いに知識にアクセスするためのインターフェースです。 学習の定義はパターンとルールを作成するだけでなく、それらを伝達する能力も備えているため、ChatGPT はデータから実際に学習するモデルの作成において真の飛躍を遂げます。 これは本当に素晴らしいです。

Nextgov: そのような強力な技術を一般に公開することの危険性は何ですか?

グットマン: 彼らが言うように、インターネットで見つけたものは決して信用しないでください。 私は今まで以上に推測します。 ChatGPT との主な違いは規模です。 特定のフレーバーを備えた十分なコンテンツを作成したい場合は、そのプロセスを自動化し、重みをシフトできるようになりました。 そして、それは本当に憂慮すべきことです。

完全を期すために、誰かがその特定のタスク用に AI モデルをトレーニングし、そのモデルを言い換えに使用することもできますが、このプロセスは一般大衆にとって、またソフトウェア エンジニアでさえもアクセスできないことは間違いありません。

シャー: 大きな危険は、誤った情報が事実として提示されることです。 ChatGPT の AI を使用して大学のエッセイを作成したり、アプリケーションを作成したりできますが、これらのタスクの技術的な性質により、出力が使用可能であることを確認するために人間によるファクト チェックが必要になる場合があります。 十分な長さのプロンプト (500 語以上と考える) の後、ChatGPT のリズムは文構造の中で繰り返しになり始めます。 また、モデル化された知識ベースも最新のものではなく、2021 年までしか更新されないため、AI は事実上、利用可能なデータに関して遅れて動作しています。

Nextgov: 一部の AI 専門家は、AI に関連する多くの危険を排除するために必要だと言っていることの 1 つは、技術を倫理的に訓練して展開することです。 倫理的AIとは実際には何ですか?

シャー: 倫理的 AI の正式な定義は、公平性、透明性、プライバシー、説明責任、人間中心性、適応性、競争可能性などの主要な基準を支持するものです。 すべての AI は倫理的である必要がありますが、現在、それには程遠い状態です。

グットマン: 「倫理性」は流動的で絶えず変化する概念であるため、倫理的 AI には多くの定義があります。 しかし、一般的に言えば、思慮深く透過的にトレーニングされた ML モデルを構築することを意味します。 モデルが慎重かつ透過的にトレーニングされている場合、偏見が生じたり、企業、人々のグループ、または社会全体に害を及ぼしたりする可能性が低くなります。

率直に言って、ほとんどの ML モデルは、倫理的なレンズを通してフィルタリングする必要はありません。 圧倒的多数は、多くの場合、より単純なタスクやアクティビティを自動化しています。 これらの例では、倫理はそれほど重要ではありません。

しかし、人間の意思決定や生計に直接的な影響を与えるモデルは、道徳的、倫理的、透明性をもって構築されるべきです。 たとえば、人々の医療や雇用へのアクセスについて決定を下すモデルは、倫理的である必要があります。

Nextgov: わかりました。 では、将来 AI が倫理的に構築されるようにするにはどうすればよいでしょうか。

シャー: AIシステムがユーザーのプライバシーと自律性を尊重し、公平性と差別の禁止を促進し、意思決定プロセスについて透明性を確保するなど、AI開発のための明確な倫理的ガイドラインを最初に確立する必要があります。 また、意思決定を説明できる AI アルゴリズムを使用したり、AI システムを使用して公共の利益を促進したりするなど、AI システムの設計に倫理的な考慮事項を組み込むことも重要です。

AIがより顕著になるにつれて、AIが責任ある方法で作成されるようにするために、独立した監視機関を設立する必要があるかもしれません. 開発者と意思決定者に、倫理的なパラメーターなしで AI を開発することの潜在的なリスクについて教育します。 そして最後に、AI システムのバイアスを緩和し、ポジティブな社会的利益のために AI の使用を促進する AI 開発手法の研究に投資する必要があります。

グットマン: 倫理性は、モデルの開発の最初から最後まで、指針となるものでなければなりません。 つまり、人間によるモデル監査を可能にし、多様なデータセットを使用してモデルを教育およびトレーニングし、ML の作成をサポートするためにさまざまなバックグラウンドを持つ幅広い ML 専門家を集め、モデルの使用方法または商品化方法に関する明確なルールとガイドラインを整備することを意味します。 .

John Breeden II は、受賞歴のあるジャーナリスト兼レビュアーであり、20 年以上のテクノロジ分野での経験があります。 彼はのCEOです テック ライターズ オフィスは、あらゆる規模の組織向けの技術的ソート リーダーシップ コンテンツを作成するグループです。 ツイッター:@LabGuys

Leave a Comment

Your email address will not be published. Required fields are marked *