増え続けるデータの完全活用を目的とする高度な分析と機械学習のツールのニーズが高まっている。その結果、そうした技術に必要な演算を実現する新たな要件がITインフラに課されている。
CIO(最高情報責任者)や企業IT部門の意思決定者にとって「ビッグデータ」という概念が重要なトピックになってから10年近くになる。だが多くの企業は、手持ちのデータを完全活用して洞察によって駆動する適切な戦略の導入に依然苦戦している。
モノのインターネット(IoT)などの組み込みシステムが生み出すデータやセンサーから得るデータ、企業システムのトランザクションデータ、ソーシャルメディアやWebサイトのデータなど、データのソースは非常に多様になっている。そのため、企業のワークロードは構造化データセットとトランザクション処理を中心とする従来型ワークロードの枠を超えて進化し、人工知能(AI)などの分析技法を取り入れ始めている。
IT調査企業のIDCは、AIが2024年までに企業ワークロードの中核要素になると予想する。同社によると、4分の3の企業でAIベースまたはAI対応のワークロードが総数の20%を占めるまでになり、ITインフラの15%はAIによって加速されるという。
ただし、高度な分析とAIをワークロードに統合すると、ITインフラに負担が掛かる恐れがあることも分かっている。
並列処理
こうした技法には、高度な並列処理が求められるものが多い。だが、従来型のCPUアーキテクチャは並列処理に格別適しているとは言えない。
この種の問題にGPUが適しているのは明らかだ。GPUはグラフィックス処理の負荷をCPUからオフロードするよう設計されている。GPUは比較的シンプルなプロセッサコアを多数備え、大量の演算の並列処理を可能にしている。
FPGA、ASICなどのハードウェアアクセラレーターも同様で、いずれもワークロードのアクセラレーションに関してさまざまな強みを持つ。FPGAはニューラルネットワークのパフォーマンスを向上させ、論理回路の再プログラミングも可能だ。だが、GPUで実行するソフトウェアよりもプログラミングが格段に複雑になる。
こうしたアクセラレーターは通常、サーバに組み込まれて既存のプロセッサコアと連動する。これは異種(ヘテロジニアス)コンピューティングとして知られている。異種コンピューティングの能力を最大限に高めるには、異なる種類のコンピューティングエンジンを1つのシステムに注意深く統合し、1ワット当たりのパフォーマンスを最適化する必要がある。
こうした異種コンピューティングシステムの好例の一つがNVIDIAの「DGX」シリーズだ。同製品は、ディープラーニングなどの高負荷なAIワークロードやハイパフォーマンスコンピューティング(HPC)のワークロードを直接の目的として、Intelの「Xeon」とNVIDIAのGPU「Tesla V100」を1つのシステムに統合している。
DGXシリーズはハードウェアアクセラレーター導入に伴う問題も幾つか明らかにする。Tesla GPUを16基備えるDGX-2の発売時の価格は39万9000ドル(約4300万円)だった。そのため、購入できるのはこのレベルのパフォーマンスがどうしても必要な企業に限られるだろう。
コンポーザブルインフラの登場
こうした難問への答えの一つがコンポーザブル(構成可能)インフラだ。
続きを読むには、[続きを読む]ボタンを押して
ください(PDFをダウンロードします)。
関連記事
"ハードウェア" - Google ニュース
May 18, 2020 at 06:00AM
https://ift.tt/366UOlA
データセンターの非効率性を解決するコンポーザブルインフラ - TechTargetジャパン
"ハードウェア" - Google ニュース
https://ift.tt/2RrtF7u
Shoes Man Tutorial
Pos News Update
Meme Update
Korean Entertainment News
Japan News Update
No comments:
Post a Comment