専用処理: 加速の新しい波

ビッグ データが急激に増加するにつれて、複雑なワークロードを処理する能力が低下しています。 Speedata の共同創設者兼 CEO である Jonathan Friedmann が、CPU によって実行される最も一般的なワークロードと、それらを高速化するために必要なハードウェアのいくつかを共有します。

2.5京 バイト単位のデータが毎日生成され、 見積り は、ビッグデータが毎年 23% ずつ増加し続けることを示唆しています。 この傾向は 浸透した 航空会社、銀行、保険会社から政府機関、病院、電気通信会社に至るまで、経済のほぼすべての企業がビッグデータ分析を採用して、ビジネスインテリジェンスを改善し、成長を促進し、効率を合理化しています。

ビッグ データが増大するにつれて、そのすべてのデータを分析するために使用されるツールを拡張する必要があります。 しかし、大規模または複雑なワークロードを処理するために現在使用されているコンピュータ チップは、そのタスクに対応できず、非常に多くのチップを必要とするため、コストが利点を上回り、コンピューティング効率を妨げています。

したがって、データの爆発的な増加は、そのすべての利点とは裏腹に、ハイテク業界に複数の課題をもたらします。 この課題を克服するための鍵は、あらゆる角度から処理能力を強化することです。

これを行うために、コンピュータ チップの従来の主力製品である CPU からワークロードをオフロードするために、一連の特殊なドメイン固有のアクセラレータが開発されました。 このような「代替」アクセラレータは、特定のタスク向けに設計されており、標準の CPU コンピューティングの柔軟性と汎用機能と引き換えに、そのような指定されたタスクのパフォーマンスを向上させ、高速化します。

以下は、アクセラレーションの主要な領域とそれに対応するアクセラレータのいくつかの短いガイドです。

AI および ML ワークロード用のハードウェア

人工知能は私たちの計算方法を変え、したがって私たちの生活を変えています。 しかし、最初の AI 分析は、CPU チップ上で実行することを余儀なくされました。CPU チップは、シングルスレッド ジョブにはるかに適しており、AI が要求する並列マルチタスク用に設計されていませんでした。

入力: グラフィックス プロセッシング ユニット (GPU)。

GPU は、グラフィック ワークロードを高速化するためにゲーム業界で生まれました。 単一の GPU は、タンデムで実行される複数の専用コアを組み合わせて、単純な制御フローで並列プログラムをサポートできるようにします。 これは、コンピュータ ゲームなどのグラフィックス ワークロードに最適です。これらのワークロードには、数百万のピクセルを含む画像が含まれており、これらを個別に並行して計算する必要があります。 これらのピクセルの処理には、ベクトル化された浮動小数点乗算も必要であり、GPU は非常にうまく処理できるように設計されています。

GPU を AI ワークロードの処理にも使用できるという発見により、AI データの管理方法に新たな地平が開かれました。 アプリケーションはグラフィカル ワークロードとは大きく異なりますが、AI/機械学習 (ML) ワークロードには、多くの点で同様の計算要求があり、効率的な浮動小数点行列の乗算が必要です。 過去 10 年間、AI と ML のワークロードが急増したため、GPU はこの急成長する需要にさらに適合するように大幅な改善を受けてきました。

その後、企業は専用の特定用途向け集積回路 (ASIC) を開発して、この重要なワークロードに対処し、AI アクセラレーションの第 2 の波を導こうとしました。 AI アクセラレーションの最前線にある ASIC には、主に推論に使用される Google のテンソル処理ユニットである TPU が含まれます。 グラフコアのインテリジェンス処理ユニットであるIPU。 RDU、SambaNova の再構成可能なデータフロー ユニット。

データ処理ワークロード

データ処理ユニット (DPU) は、基本的にネットワーク インターフェイス コントローラー (NIC) であり、特定のデバイスをデジタル ネットワークに接続するハードウェアです。 これらの ASIC は、暗号化やストレージ関連の操作などの CPU および上位層の処理からプロトコル ネットワーキング機能をオフロードするように明確に設計されています。

Nvidia が買収した Mellanox や、AMD が買収した Persando など、企業はさまざまな DPU を開発しています。 それらのアーキテクチャはさまざまであり、各オフロードの正確なネットワーク プロトコルは異なりますが、すべての DPU バリエーションは、データ処理を高速化し、ネットワーク プロトコルを CPU からオフロードするという同じ最終目標を持っています。

Intel の DPU には IPU (Infrastructure Processing Unit) という頭字語が付​​けられていますが、DPU ファミリに属しています。 IPU は、ネットワーク制御、ストレージ管理、セキュリティなど、従来は CPU で実行されていた機能をオフロードすることで、データ センターの効率を向上させるように設計されています。

ビッグデータ分析

データベースと分析データ処理は、ビッグデータが真に実用的な洞察を生み出す場所です。 上記のワークロードと同様に、CPU は長い間標準と見なされていました。 しかし、データ分析ワークロードの規模が拡大し続けるにつれて、これらの CPU 機能は指数関数的に効率が低下しています。

ビッグ データ分析のワークロードには、データの構造と形式、データのエンコード、処理オペレーターの種類、中間ストレージ、IO、メモリの要件など、多くの固有の特性があります。 これにより、これらの特定の特性を持つワークロードを最適化することを目的とした専用の ASIC アクセラレーターが可能になり、従来の CPU よりも安価なコストで大幅な高速化を実現できます。 この可能性にもかかわらず、過去 10 年間、分析ワークロード用の CPU の後継となるチップはありませんでした。 その結果、これまでのところ、専用のアクセラレーターはビッグデータ分析に十分なサービスを提供してきませんでした。

分析ワークロードは通常、構造化照会言語 (SQL) でプログラミングされますが、他の高水準言語も非常に一般的です。 このようなワークロードを処理する分析エンジンは豊富で、Spark や Presto などのオープンソース エンジンや、Databricks、Redshift、Big Query などのマネージド サービスが含まれます。

Speedata は、分析ワークロードを高速化するための分析処理ユニット (APU) を作成しました。 データが急増する中、このような新しいツールから得られる洞察は、あらゆる業界で信じられないほどの価値を解き放つ可能性を秘めています。

続きを見る: チャットボットが意思決定者のデータ分析消費を簡素化する方法

プロセスを尊重する

今日のコンピューティングのニーズに対する「万能」なソリューションはありません。

代わりに、かつてどこにでもあった CPU は、複雑なワークロード (データ分析、AI/ML、グラフィックス、ビデオ処理など) を渡す「システム コントローラー」に進化しています。 – 特殊なユニットとアクセラレーターにオフ。

次に、企業は、ワークロードのニーズに合わせて戦略的に調整されたそのような処理ユニットを使用してデータセンターを適応させています。 この高度なカスタマイズは、データセンターの有効性と効率を向上させるだけでなく、コストを最小限に抑え、エネルギー消費を削減し、必要な不動産を削減します。

分析の場合、より高速な処理により、大量のデータについてより多くの洞察を得ることができ、新しい機会が開かれます。 より多くの処理オプションと新しい機会により、ビッグデータ時代は始まったばかりです。

専用処理によって、複雑なデータ ワークロードを処理するプロセスをどのように簡素化できると思いますか? 私たちと共有してください フェイスブック ツイッター、 と リンクトイン. 知りたいです!

画像ソース: シャッターストック

データ分析の詳細

Leave a Comment

Your email address will not be published. Required fields are marked *