Article

FPGA vs. GPU vs. CPU – AIアプリケーションのハードウェア オプション

Circuit board

フィールド プログラマブル ゲート アレイ(FPGA)は人工知能(AI)アプリケーションに多数のメリットをもたらします。画像処理装置(GPU)や従来の中央処理装置(CPU)と比較すると、どうでしょうか?

人工知能(AI)という用語は、人間と同じ方法で判断することのできる、人間ではない機械知能を指しています。これには、判断力、熟考力、適応力、目的意識が含まれています。

調査会社、Statistaは、AIの世界的市場が2025年までに1,260億米ドル規模に到達すると予測しています。2030年までに、AIは中国のGDPの26.1%、北アメリカのGDPの14.5%、アラブ首長国連邦のGDPの13.6%を占めるに至ると考えられています。

AI市場全体には、さまざまなアプリケーションが含まれ、自然言語処理(NLP)、ロボティック プロセス オートメーション、機械学習や、マシン ビジョンなどが挙げられます。パソコンやスマートフォンの出現と同様、AIは多くの業種で急速に導入が進み、次の大きな技術的変化を作り出しています。

人工知能(AI)の始まりとその用語は、1956年、Allen Newell、Cliff Shaw、Herbert Simonの3人の研究者が開発した、ロジック セオリスト プログラムが大きく貢献しています。ロジック セオリスト プログラムは人間の問題解決能力を模倣するようデザインされ、ランド研究所(Research and Development Corporation:RAND)が資金を提供しました。ロジック セオリストは最初のAIプログラムと見なされ、1956年、ニューハンプシャー州ダートマス大学のダートマス会議(DSRPAI)で発表されました。

AIは主に、人間の思考を模倣するプログラミング アルゴリズムに依存していますが、ハードウェアもまた同様に、重要な構成要素の一部です。AIを運用するにあたって主要な3つのハードウェア ソリューションとは、フィールド プログラマブル ゲート アレイ(FPGA)、画像処理装置(GPU)、中央処理装置(CPU)です。

それぞれに、独自の強みがあり、いくつかの限界があります。それをこれから調べていきましょう。

FPGAs

フィールド プログラマブル ゲート アレイ(FPGA)はプログラム可能なハードウェア ファブリックを備えた集積回路です。FPGAプロセッサ内部の機能回路の柔軟性が高い点で、画像処理装置(GPU)や中央処理装置(CPU)とは異なっています。これにより、FPGAプロセッサは、必要に応じてプログラムしたり、更新したりすることができます。さらに、設計者が一からニューラル ネットワークをビルドしたり、ニーズを満たすようFPGAを構成することができます。

再プログラム可能で、再構成可能なFPGAのアーキテクチャは、絶えず変化するAIを取り巻く状況に利点をもたらし、設計者は新しくアップデートしたアルゴリズムをすばやく試験することができます。新たなハードウェアを開発したりリリースする必要がないことから、市場投入までの時間を短縮し、コストを削減できるため、強力な競争上の優位性を生み出します。

FPGAは、特定用途向け集積回路(ASIC)開発の特徴である高いコストや複雑さを減らすことで、パフォーマンス効率へとつながる、速度やプログラム可能性、柔軟性を兼ね備えています。

FPGAが可能にする主なメリットには以下が含まれます。

  • レイテンシが小さいというメリットを活かした優れたパフォーマンス:FPGAは低レイテンシと確定的レイテンシ(DL)を可能にします。モデルとしてのDLは、初期状態または任意の開始条件から継続的に同じ出力を生成します。DLは、制限時間に厳しい多くのアプリケーションでは非常に重要な、既知の反応時間を実現します。これにより、音声認識、ビデオ ストリーミング、モーション認識のようなリアルタイムのアプリケーションを高速で実行することが可能になります。
  • 優れた費用対効果:FPGAは、異なるデータ タイプや性能に合わせて、製造後に再プログラムできるため、新たなハードウェアのアプリケーションと交換するよりも、真の価値を提供します。同じチップに、画像処理パイプラインのような追加の機能を統合することで、設計者はAIだけではなくFPGAを使用すれば、コストを削減し、ボードを省スペース化することができます。FPGAの長い製品寿命により、何年または何十年にもわたって、アプリケーションの高い有用性を実現します。このような特徴を有しているため、産業、航空宇宙、防衛、医療、輸送市場での使用に理想的とされています。
  • エネルギー効率:設計者は、FPGAを用いて、アプリケーションのニーズに合わせてハードウェアを調整できます。TensorFlowやPyTorchのような機械学習のフレームワークを最適化するには、INT8量子化のような開発ツールを利用するのが成功への近道です。INT8量子化は、NVIDIA® TensorRTやXilinx® DNNDKのようなハードウェア ツールチェーンにも理想的な成果を発揮します。これは、INT8が、浮動小数点数の代わりに8ビット符号付き整数を使用し、浮動小数点演算ではなく整数演算を使用するためです。INT8の正しい利用法により、メモリと処理要求の両方を削減することができ、メモリと帯域幅利用を75%も縮小することができます。これは、過酷なアプリケーションで電力効率要件を満たすために非常に重要であることが示されています。

FPGAは並行して複数の機能をホストでき、特定の機能をチップのパーツに割り当てることができるため、運用効率やエネルギー効率を大きく向上させることができます。FPGAの独自のアーキテクチャにより、わずかな量の分散メモリがファブリックに配置され、処理へと回されます。これによりレイテンシを下げ、さらに重要な点として、GPUデザインと比較して電力消費を低減することができます。

GPUs

画像処理装置(GPU)は、幾何オブジェクトや、照明、色深度の描画に対応する高度な演算や浮遊小数点機能に頼る、コンピュータ グラフィックス、仮想現実トレーニング環境、ビデオを生成する際に使用できるよう、開発されました。人工知能を成功に導くには、膨大なデータを分析して、そこから学習する必要があります。それには、AIアルゴリズムを実行し、大量のデータを変換するために相当の処理能力が求められます。GPUは、ビデオやグラフィックを解釈するのに使用する大量のデータをすばやく処理できるよう特殊にデザインされているため、それらの処理を実行することができます。その強力な処理能力により、機械学習や人工知能のアプリケーションにGPUが一般的に使用されてきました。

GPUは並列処理に優れており、多数の算術演算を並行して処理します。これにより、ワークロードが繰り返し、矢継ぎ早に実行されるようなアプリケーションを、大幅に高速化させることができます。5年のライフサイクルを有する平均的なグラフィックカードを備えるGPUの価格は、競争力のあるソリューションに分類することができます。

しかし、GPUのAIには、限界があります。一般的にGPUは、マイクロチップがAIアプリケーションに特化する形でデザインされているASICデザインと同じような、優れたパフォーマンスを発揮することはありません。GPUは、エネルギー効率や熱などを犠牲にして、多くの処理能力を実現しています。熱により、アプリケーションの耐久性面で問題が生じたり、パフォーマンスが損なわれたり、動作環境のタイプが制限される場合があります。また、AIアルゴリズムを更新し、新たな機能を追加するという能力では、FPGAプロセッサには及びません。

CPUs

中央処理装置(CPU)は、多くのデバイスで使用されている標準プロセッサです。FPGAやGPUと比較すると、CPUのアーキテクチャには、順次処理に最適化された、限られた数のコアが含まれます。Arm®プロセッサは、SIMD(Single Instruction/Multiple Data)アーキテクチャを実装しているため、これには当てはまらず、複数のデータ ポイントで同時処理が可能となりますが、そのパフォーマンスはGPUやFPGAには及びません。

コアの数が限られているため、AIアルゴリズムを適切に実行するために必要な、大量のデータを並行して処理する、CPUプロセッサの効率が低下します。FPGAやGPUのアーキテクチャは、複数のタスクをすばやく、同時に処理するために求められる集中的な並列処理機能を備えた設計が施されています。FPGAプロセッサやGPUプロセッサは、AIアルゴリズムを、CPUよりもはるかに高速で処理することができます。つまり、AIアプリケーションやニューラル ネットワークは、FPGAやGPUでは、CPUと比較して何倍も高速で学習し反応します。

しかし、CPUには初期費用のメリットがあります。限られたデータセットを使って小規模なニューラル ネットワークをトレーニングする場合はCPUを使用することができますが、時間を犠牲にすることになります。CPUベースのシステムは、FPGAやGPUベースのシステムと比較すると、かなり低速で動作するためです。CPUベースのアプリケーションの別のメリットは、消費電力です。GPUの構成と比較すると、CPUは電力効率に優れています。

Tiny machine learning (TinyML)

AI開発で、次の進化の段階と見なされているTinyMLは、目を見張る成長を遂げつつあります。FPGA、GPU、CPUプロセッサで運用するAIアプリケーションは非常にパワフルですが、それらは携帯電話、ドローン、ウェアラブル アプリケーションを含め、あらゆる状況で使用できるわけではありません。

コネクテッド デバイスの幅広い導入に伴い、機能性を補完するためにクラウドに依存する状態から抜け出すため、局所データ解析の必要性が生じています。TinyMLは、マイクロコントローラで動作するエッジ デバイスで、低レイテンシ、低電力、低帯域幅推論モデルを実現します。

平均的なコンシューマーCPUは電力を65~85ワット消費しますが、平均的なGPUでは200~500ワットを消費します。それと比較して、一般的なマイクロコントローラはミリワットまたはマイクロワットほどの電力を消費する程度で、電力消費量が千分の一に下がります。このエネルギー効率により、TinyMLデバイスは、MLアプリケーションをエッジで動作させながら、数週間、数カ月、数年にわたってバッテリー電力で動作できます。

TinyMLは、TensorFlow Lite、uTensor、ArmのCMSIS-NN等を含むフレームワークに対応することで、AIと小型のコネクテッド デバイスを統合しています。

TinyMLの利点には以下が含まれます。

  • エネルギー効率:マイクロコントローラの電力消費量が非常に少ないため、遠隔での取り付けやモバイル デバイスで利点があります。
  • 低レイテンシ:エッジ側でデータをローカルで処理するため、クラウドへデータを転送して推論処理を行う必要がなくなります。これにより、デバイスのレイテンシが大幅に軽減されます。
  • プライバシー:クラウド サーバーではなく、ローカルにデータを保存できます。
  • 帯域幅の削減:推論処理をクラウドに依存することが減るため、帯域幅の問題も最小化されます。

将来的にMCUを使用するTinyMLは、FPGAやGPU、CPUが実現可能なオプションではない、小型のエッジ デバイスや保守的なアプリケーションで見込みがあります。

重要なポイント

AIに用いる主要な3つのハードウェア選択肢は、FPGA、GPU、CPUです。速度と反応時間が非常に重視されるAIアプリケーションでは、FPGAとGPUに学習や反応時間での利点があります。GPUには、AIやニューラル ネットワークで必要となる膨大なデータを処理する能力があるものの、エネルギー効率、発生する熱に関する検討事項、耐久性、新たな機能やAIアリゴリズムを使用するアプリケーションのアップデート機能などにデメリットがあります。FPGAは、AIアプリケーションやニューラル ネットワークに主要なメリットを発揮します。その中には、エネルギー効率、実用性、耐久性、AIアルゴリズムを容易にアップデートできる能力が含まれます。

FPGAのソフトウェア開発には目を見張る進歩があり、プログラムしたりコンパイルするのが簡単になりました。ハードウェア選択肢を調べることは、AIアプリケーションの成功には欠かせません。最終判断を下す前に、選択肢を注意して調査してください。

次のイノベーションに向け、正しい技術パートナーを選択することで、効率性を最適化し、潜在的なリスクを軽減し、収益を最大化することができます。お客様の目標を達成するため、アヴネットはお客様と、人工知能分野の信頼できる世界的技術パートナーを結び付けることができます。これにより、知的財産のイノベーションや、強力な優位性を秘める他の分野に、お客様の貴重なリソースを集中的に使用することができます。当社は、一体となって、お客様の製品販売の差別化を成功に導き、市場投入までの時間を加速し、ビジネス成果を改善するのに必要なサポートを提供いたします。

アヴネットについて

アヴネットは、100年にわたるイノベーションを礎として、あらゆる段階において、お客様が新たな技術を開発したり、提供したりする際に直面する課題を切り抜けられるよう、サポートを行っています。当社は、お客様のイノベーションを支え、課題をチャンスに変え、成功へと繋がる正しいソリューションを構築するための専門的知識を有しています。信頼できる世界的技術パートナーとして、アヴネットと共にお客様の展望を実現させ、さらなる高みへと前進してください。

Marketing Content Spots
Related Articles
Related Articles
Vibe coding using AI on a computer screen
Will vibe coding kill the compiler?
By Philip Ling   -   2025年7月3日
There is an ever-growing number of high-level programming languages to choose from. With vibe coding using AI assistants becoming popular, could the days of high-level languages, toolchains and even compilers be numbered?
development board and tablet with balloons on screen
Big, bright, built for engineers: New Display Kits for ST Discovery Boards
By Frank Ploenissen   -   2025年6月30日
Size does matter. At least it does when it comes to our new MIPI DSI displays. We’re upscaling your options with new 7” and 10.1” display kits, designed to fit seamlessly with STMicroelectronics’ STM32F769I and STM32H747I Discovery kits.
Related Events
Related Events
airplane cockpit looking out on the runway
More Electrification in Aircraft
Date: 2022年10月11日
Location: Virtual
satellite in orbit
Space 2.0: AMD Technologies for New Space
Date: 2022年2月23日
Location: Webinar