出典: Ar_TH/stock.adobe.com
コンピューティングの歴史は、さまざまな視点から語ることができます。例えば、ハードウェアとソフトウェアの間の猫とネズミのゲームを考えてみましょう。新しいハードウェアが導入されると、ソフトウェアがその計算能力を最大限に活用するまでには時間がかかります。その後、ソフトウェアはリソースを大量に消費し、ハードウェアが追いつくまで待たなければなりません。もう1つの例は、ローカルとリモートの計算能力の間のやり取りです。用語は変わることがあっても(クラウド対リモート、ローカル対エッジ)、一般的な概念は変わりません。基本的に、エッジコンピューティングは、データをできるだけソースに近い場所で処理することを目的としています。
エッジコンピューティングは、コンピューティングの進化の一環であり、データは単なるマウスのクリックやキーストロークではなく、センサーのテレメトリーやカメラ画像、ビデオストリームなど、さまざまなソースから構成されています。では、地球上の多くの地域でほぼどこでも無線インターネットにアクセスできる時代に、なぜデータをまとめてクラウドに送らないのでしょう?実際、2006年以降、Amazon Web Services(AWS)、Google Cloud、Microsoft Azureなどの信頼性の高いクラウドインフラが登場して以来、私たちはそれをやってきました。しかし、この質問に答えるのは簡単ではありません。
その疑問に答えるために、インターネットそのものの台頭を見てみましょう。1990年代、ワールド・ワイド・ウェブ上にウェブサイトが立ち上がるにつれ、遅延の問題が発生しました。 米国のサーバーにホストされているウェブサイトには日本からアクセスできるかもしれませんが、ブラウザへのダウンロードには比較的長い時間がかかる可能性があります。この遅延はレイテンシーと呼ばれ、ネットワークが他のユーザーで非常にアクティブな場合、悪化する可能性があります。そして、そのサイトが人気サイトになると、トラフィックが増えるだけで状況は悪化します。この遅延を減らし、全体的な体験を向上させるために、ローカルで利用可能なコンテンツ配信ネットワーク(CDN)が考案され、ウェブサイト(または映画や文書などの他のコンテンツ)のコピーを、アクセスするエンドユーザーの近くにキャッシュするようになりました。
その基礎の上で、エッジコンピューティングがこれまでのものと何が違うのかを検証してみましょう。スマートフォンや、ウェアラブル、モノのインターネット(IoT)カメラ、スマート電球などの関連周辺機器が一般的になった頃、データのソースと方向の流れに根本的な変化が起こりました。リモートサーバーから静的コンテンツにアクセスし、ウェブブラウザでローカルに表示する代わりに、これらの「スマートデバイス」は、搭載された複数のセンサから多くのデータを生成し始めました。
問題は、これらのデバイスが実際にはそれほど賢くないということでした。センサはデータを生成するかもしれませんが、データは情報や知識ではありません。データを有用なものにするためにはデータを処理する必要がありますが、スマート・デバイスの場合、特に計算集約的な人工知能(AI)や機械学習(ML)アルゴリズムの登場により、その処理はクラウドで行われるようになりました。特に、計算集約型の人工知能(AI)や機械学習(ML)アルゴリズムの登場により、突然、大量のデータを持つ多くのデバイスが、大量のビットをクラウドにプッシュするようになりました。
このようなことから、待ち時間という厄介な小さな問題、特に推論に戻ります。コンピューティングにおいて推論とは、訓練されたAIモデルが新しい入力を提示され、確率的な出力を生成することです。 AI/ML技術の中で最もエンドユーザーに焦点を当てた側面であり、歴史的に計算集約的でした。そのため、推論を正しく行うことは非常に重要です。当初は、生データをクラウドに送信してサーバー級のハードウェアの計算能力を活用し、その出力をローカル・デバイスに送り返すという方法しかありませんでした。しかしその後、組み込みハードウェアはより強力になり、MLアルゴリズムはより効率的になりました。この融合により、エッジコンピューティングは、すべてのデータをクラウドに送って処理する代わりに実行可能な選択肢となる、いくつかの注目すべき利点が生まれました。
ここ数年の新しいハードウェアとソフトウェアの出現により、エッジコンピューティングの利用が拡大し、ニューラルネットワークのような複雑なアルゴリズムを比較的安価なバッテリ駆動のデバイスで実行できるようになりました。以下は、現在のエッジネイティブ・ハードウェアの一部です:
しかし、ハードウェアはソフトウェアなしには成り立ちません。エッジでのAIワークロードには、低消費電力推論のために最適化されたソフトウェアフレームワークが必要であり、以下のような一般的なフレームワークが利用可能です:
しかし、AI、ビデオ分析、ロボット工学のリアルタイム処理など、クラウドを待つことができない重要な業務では、エッジで処理してもデータがクラウドに送信されないわけではありません。エッジゲートウェイを介してクラウドにデータを送信する正当な理由がまだあります:
以下のようなエッジ指向の通信プロトコルとメッセージブローカーは、この通信を効率的に行うことを保証します:
エッジにおけるセキュリティ、パフォーマンス、柔軟性を確保するため、エッジ展開に特化したオペレーティング・システムとランタイム環境が登場しています。これらの環境は、リソースに制約のあるデバイス上で確実に動作し、コンテナ化されたワークロードをサポートし、現場での安全なソフトウェア配信とライフサイクル管理を可能にすることを目的として構築されています。広く使用されているプラットフォームには、次のようなものがあります:
最後に、複雑化する分散エッジ・コンピューティング・システムを管理するために、主要なクラウド・プロバイダーや専門プラットフォームが、エッジとクラウドを橋渡しするオーケストレーテッド・フレームワークを提供しています。これらのプラットフォームは、デバイスのプロビジョニング、ワークロードの展開、セキュアな通信、ライフサイクル管理をサポートします。
エッジ・コンピューティングは、インテリジェント・システムの設計、構築、導入方法における極めて重要な転換点であり、エンジニアにとってエキサイティングな新境地を開くものです。 ローカルで、リアルタイムで、リソースに制約のあるデバイス上でデータを処理できるエッジコンピューティングは、AI、自動化、分析などの高度な機能を、データが生成される環境に直接もたらします。エッジコンピューティングは、その技術的な重要性だけでなく、一般データ保護規則(GDPR)のような主権やプライバシーに関する法律の台頭により、法律やビジネスの観点からも重要です。
この進化は、ますます強力になるマイクロコントローラ、エネルギー効率の高いAIアクセラレータ、軽量なMLフレームワークによって推進されています。AWS GreengrassやAzure IoT Edgeを含むプラットフォームは、TensorFlow LiteやNVIDIA Jetsonのようなツールとともに、かつては企業のデータセンターにしかなかったテクノロジーへのアクセスを民主化しています。今日、エンジニアは、自律型ロボットやスマート環境モニターから、コネクテッド・ウェアラブルや産業用オートメーション・システムまで、洗練されたインテリジェント・エッジ・アプリケーションのプロトタイプを作成し、展開することができます。
最終的には、エッジコンピューティングによってエンジニアはクラウド依存から解放され、より応答性、回復力、プライバシーに配慮した設計が可能になります。このアプローチは、技術的に強力であるだけでなく、接続されたデータ駆動型の世界においてますます必要とされています。エッジが進化し続ける中、エンジニアにとって、次世代のインテリジェントな分散型テクノロジーを形成する、かつてない機会を提供します。
マイケル・パークス:カスタム電子機器設計スタジオ・組み込みセキュリティ研究会社Green Shoe Garage (米国メリーランド州) の共同設立者。科学的・技術的トピックに対する社会の意識向上に向けてGears of Resistance Podcastを制作。メリーランド州プロフェッショナルエンジニア (P.E.) 資格を取得、ジョンズ・ホプキンス大学にてシステム工学で修士号を取得。