言葉に詰まる

人々がお互いにコミュニケーションをとる最も自然な方法はスピーチです。そのため、その能力が失われると、コミュニケーションに重大な障壁が生じ、一般的に生活の質の低下につながります。 筋萎縮性側索硬化症や脳病変などの神経学的状態は、外傷性脳損傷と同様に、話す能力の喪失につながる可能性があります. 発話障害は、手話を使用する、書く、またはキーボードを使用する能力を制限または防止する付随する運動障害を持つ人に特に影響を与えます。 この分野では、通常、脳の活動を測定する脳インプラントと、その脳の活動を音声として解釈するある種のシステムで構成されるブレイン マシン インターフェースの形で進歩が見られます。

既存のシステムでは、ほとんどの場合、ダウンストリームのデコード パイプラインで十分に高い信号対雑音比を達成するために、ユーザーが話したり、音声を模倣したりする必要があります。 しかし、内部での発話、または単に何を言おうとしているのかということになると、正確なシステムの開発に向けた進歩はほとんどありません。 カリフォルニア工科大学と南カリフォルニア大学のチームによって行われた最近の研究は、 内部音声の解読 大幅に前進。 彼らの技術は、最大 91% の精度で内部音声を分類できます。

あなたは今、これが本当に良いアイデアなのか自問しているかもしれません — あなたの内なる考えを読むことができる機械ですか? すべてを除いて、何がうまくいかない可能性がありますか? それほど速くはない、と研究者は言う。 彼らは、彼らのシステムは各ユーザーに対して個別にトレーニングする必要があり、人が単語に集中している場合にのみ単語を認識できることを指摘しています。 個人的には、スズ箔の帽子のほこりを払いますが、まだかぶるつもりはありません. 結局のところ、テクノロジーは時間の経過とともに改善される傾向があるため、これが将来どこに向かう可能性があるかを検討することは価値があります.

現在実装されているように、チームのアプローチは、脳内の縁上回と一次体性感覚皮質に埋め込まれた微小電極アレイに依存しています。 信号は、6 つの単語 (スプーン、ニシキヘビ、戦場、カウボーイ、水泳、電話) と 2 つの疑似単語 (Bindip、Nifzig) を認識するようにトレーニングされたサポート ベクター マシン分類子モデルに入力されました。 機械学習を使用することで、研究者は脳活動を内部音声に変換する方法を理解する必要がなくなりましたが、モデルにラベル付きのサンプル データを表示することで、一般的な理解を得ることができました。

非常に小規模な検証研究が、四肢麻痺の 1 人の個人を対象に実施されました。 この個人からデータを収集し、モデルをトレーニングした後、参加者はコンピューター画面に単語を表示され、その単語を内部で話すように求められました. 達成された最高の分類精度は 91% で、参加者は単語ごとに内部音声を 16 回繰り返す必要がありました。 8 回の繰り返しでは、8 語の語彙では最高精度が 72% に低下します。

これが将来どうなるかは誰にもわからないが、現時点では、このシステムはマインドリーダーとはほど遠い。 動作するために脳インプラントを必要とすることとは別に、システムのユーザーは単語に集中し、その単語を最大 16 回繰り返す必要があります。 さらに、テストされた小さな 8 語の語彙は、言語のすべての単語を解読するタスクを課されたときに、このデバイスがどのように動作するかをうまく表現していません。 何千もの単語を正確に区別するのは非常に困難であることが判明する場合があります。 今のところ、技術を改良し、未解決の問題に答えるためのさらなる研究を待つ必要があります。

Leave a Comment

Your email address will not be published. Required fields are marked *