日本 - フラグ 日本

ご希望の通貨をご確認ください。:

日本円
インコタームズ:発注時に消費税が加算されたDDP
All prices include duty and customs fees.
¥6,000 (JPY) を超えるご注文は通常、発送無料となります

米国ドル
インコタームズ:FCA (発送場所)
関税、通関手数料、消費税は、商品お届け時にお支払いください。
$50 (USD) を超えるご注文は通常、発送無料となります

Bench Talk for Design Engineers

Mouser Blog | Japan

rss

マウザー・エレクトロニクスの公式ブログ


現場主導のエッジコンピューティング:クラウド依存からの脱却とビジネス革新 Michael Parks

出典 Ar_TH/stock.adobe.com

 

コンピューティングの歴史は、さまざまな視点から語ることができます。例えば、ハードウェアとソフトウェアの間の猫とネズミのゲームを考えてみましょう。新しいハードウェアが導入されると、ソフトウェアがその計算能力を最大限に活用するまでには時間がかかります。その後、ソフトウェアはリソースを大量に消費し、ハードウェアが追いつくまで待たなければなりません。もう1つの例は、ローカルとリモートの計算能力の間のやり取りです。用語は変わることがあっても(クラウド対リモート、ローカル対エッジ)、一般的な概念は変わりません。基本的に、エッジコンピューティングは、データをできるだけソースに近い場所で処理することを目的としています。

エッジコンピューティングは、コンピューティングの進化の一環であり、データは単なるマウスのクリックやキーストロークではなく、センサーのテレメトリーやカメラ画像、ビデオストリームなど、さまざまなソースから構成されています。では、地球上の多くの地域でほぼどこでも無線インターネットにアクセスできる時代に、なぜデータをまとめてクラウドに送らないのでしょう?実際、2006年以降、Amazon Web Services(AWS)、Google Cloud、Microsoft Azureなどの信頼性の高いクラウドインフラが登場して以来、私たちはそれをやってきました。しかし、この質問に答えるのは簡単ではありません。

 

ローカルからリモート、そして再びローカルへ

 

その疑問に答えるために、インターネットそのものの台頭を見てみましょう。1990年代、ワールド・ワイド・ウェブ上にウェブサイトが立ち上がるにつれ、遅延の問題が発生しました。 米国のサーバーにホストされているウェブサイトには日本からアクセスできるかもしれませんが、ブラウザへのダウンロードには比較的長い時間がかかる可能性があります。この遅延はレイテンシーと呼ばれ、ネットワークが他のユーザーで非常にアクティブな場合、悪化する可能性があります。そして、そのサイトが人気サイトになると、トラフィックが増えるだけで状況は悪化します。この遅延を減らし、全体的な体験を向上させるために、ローカルで利用可能なコンテンツ配信ネットワーク(CDN)が考案され、ウェブサイト(または映画や文書などの他のコンテンツ)のコピーを、アクセスするエンドユーザーの近くにキャッシュするようになりました。

その基礎の上で、エッジコンピューティングがこれまでのものと何が違うのかを検証してみましょう。スマートフォンや、ウェアラブル、モノのインターネット(IoT)カメラ、スマート電球などの関連周辺機器が一般的になった頃、データのソースと方向の流れに根本的な変化が起こりました。リモートサーバーから静的コンテンツにアクセスし、ウェブブラウザでローカルに表示する代わりに、これらの「スマートデバイス」は、搭載された複数のセンサから多くのデータを生成し始めました。

問題は、これらのデバイスが実際にはそれほど賢くないということでした。センサはデータを生成するかもしれませんが、データは情報や知識ではありません。データを有用なものにするためにはデータを処理する必要がありますが、スマート・デバイスの場合、特に計算集約的な人工知能(AI)や機械学習(ML)アルゴリズムの登場により、その処理はクラウドで行われるようになりました。特に、計算集約型の人工知能(AI)や機械学習(ML)アルゴリズムの登場により、突然、大量のデータを持つ多くのデバイスが、大量のビットをクラウドにプッシュするようになりました。

 

ボトルネックとなる遅延

 

このようなことから、待ち時間という厄介な小さな問題、特に推論に戻ります。コンピューティングにおいて推論とは、訓練されたAIモデルが新しい入力を提示され、確率的な出力を生成することです。 AI/ML技術の中で最もエンドユーザーに焦点を当てた側面であり、歴史的に計算集約的でした。そのため、推論を正しく行うことは非常に重要です。当初は、生データをクラウドに送信してサーバー級のハードウェアの計算能力を活用し、その出力をローカル・デバイスに送り返すという方法しかありませんでした。しかしその後、組み込みハードウェアはより強力になり、MLアルゴリズムはより効率的になりました。この融合により、エッジコンピューティングは、すべてのデータをクラウドに送って処理する代わりに実行可能な選択肢となる、いくつかの注目すべき利点が生まれました。

  • 待ち時間の短縮 エッジコンピューティングでは、処理のためにデータをリモートのクラウドに送信する必要がないため、リアルタイムまたはほぼリアルタイムの応答が可能です。
  • 帯域幅の最適化 データをローカルで処理することで、中央サーバーに送信するデータ量を削減し、ネットワーク帯域幅を節約します。
  • 信頼性の向上 エッジコンピューティングは、インターネット接続が断続的または制限されている場合でも機能し続けるため、リモートアプリケーションやミッションクリティカルなアプリケーションに最適です。
  • セキュリティとプライバシー 機密データを中央の場所に転送するのではなく、ローカルで処理できるため、潜在的なサイバー脅威にさらされる可能性が低くなります。

 

エッジコンピューティングを実現する新技術

 

ここ数年の新しいハードウェアとソフトウェアの出現により、エッジコンピューティングの利用が拡大し、ニューラルネットワークのような複雑なアルゴリズムを比較的安価なバッテリ駆動のデバイスで実行できるようになりました。以下は、現在のエッジネイティブ・ハードウェアの一部です:

  • Google Edge Tensor Processing Unit (TPU)TensorFlow Liteモデルを効率的に実行するための専用チップ
  • NVIDIA Jetson series ロボット工学、ビデオ解析、スマートシティ向けのAIアクセラレート組込みプラットフォーム
  • Intel® Movidius™ Neural Compute Stick:低消費電力ディープラーニング向けプラグアンドプレイUSBアクセラレータ
  • Industrial edge gateways:データをクラウドに送信し、アップデートを受信するためのローカル処理ハブおよび相互接続として機能する堅牢なマイクロデータセンター

しかし、ハードウェアはソフトウェアなしには成り立ちません。エッジでのAIワークロードには、低消費電力推論のために最適化されたソフトウェアフレームワークが必要であり、以下のような一般的なフレームワークが利用可能です:

  • TensorFlow Lite:エッジデバイスのための軽量ML推論
  • ONNX Runtime:様々なプラットフォームでのAIモデルの実行をサポートします。
  • NVIDIA TensorRTJetsonデバイス向けに最適化されたディープラーニング推論

しかし、AI、ビデオ分析、ロボット工学のリアルタイム処理など、クラウドを待つことができない重要な業務では、エッジで処理してもデータがクラウドに送信されないわけではありません。エッジゲートウェイを介してクラウドにデータを送信する正当な理由がまだあります:

  • スケーラブルなストレージとアーカイブ ハードウェアの制約を受けることなく、膨大な量のデータを長期保存できます。
  • グローバルな分析と傾向検出 デバイス間でデータを集約し、システム全体の洞察とパターンを明らかにします。
  • 高度なモデルトレーニング 強力なクラウドリソースを使用して、実世界のデータを使用してモデルを再トレーニングし、改訂されたMLモデルをエッジに展開します。
  • 集中管理 クラウドダッシュボードと自動化ツールにより、デバイスをリモートで監視、更新、管理します。
  • ディザスタリカバリと冗長性 セキュアで複製されたクラウドバックアップにより、ローカル障害からデータを保護します。

以下のようなエッジ指向の通信プロトコルとメッセージブローカーは、この通信を効率的に行うことを保証します:

  • メッセージ・キューイング・テレメトリ・トランスポート(MQTT IoTのための効率的でオーバーヘッドの少ない通信
  • 制約アプリケーションプロトコル(CoAP):制約の多いデバイス向けに設計された軽量プロトコル
  • アドバンスト・メッセージ・キューイング・プロトコル(AMQP 堅牢なメッセージングのために銀行や産業アプリケーションで使用
  • ZeroMQNATS リアルタイム処理のための高速メッセージングシステム

エッジにおけるセキュリティ、パフォーマンス、柔軟性を確保するため、エッジ展開に特化したオペレーティング・システムとランタイム環境が登場しています。これらの環境は、リソースに制約のあるデバイス上で確実に動作し、コンテナ化されたワークロードをサポートし、現場での安全なソフトウェア配信とライフサイクル管理を可能にすることを目的として構築されています。広く使用されているプラットフォームには、次のようなものがあります:

  • Ubuntu Core IoTおよび組み込みシステム向けに特別に設計された、合理化されたコンテナ対応のUbuntuバージョンです。Ubuntu Coreは、スナップパッケージを使用してソフトウェアアップデートを自動的に配信するため、デバイスを安全にアップデートし、必要に応じてロールバックすることができます。読み取り専用のファイルシステムと厳格な制限モデルにより、信頼性と回復力を必要とするミッションクリティカルなエッジ展開に最適です。
  • Yocto Project Yocto Projectは、完全なLinuxディストリビューションではなく、ハードウェアアーキテクチャにとらわれないツールのセットであり、開発者は組み込みシステムのハードウェアとアプリケーションのニーズに合わせてカスタム化された軽量のLinuxオペレーティングシステムを構築することができます。OSのフットプリント、依存関係、セキュリティを完全に制御する必要がある産業用、自動車用、民生用電子機器に広く使用されています。
  • Azure IoT Edge Runtimeマイクロソフト(Microsoft)のコンテナベースのエッジコンピューティングプラットフォームは、エッジデバイスへのクラウドインテリジェンスの展開を可能にします。AIモデル、Azure関数、カスタムロジックなど、コンテナ化されたワークロードをサポートし、これらはすべてAzureポータルを介して管理されます。オフライン実行、デバイスツイン、集中監視などの機能により、工場、物流、インフラネットワークに分散した資産を持つ企業にとって強力なランタイムとなります。

最後に、複雑化する分散エッジ・コンピューティング・システムを管理するために、主要なクラウド・プロバイダーや専門プラットフォームが、エッジとクラウドを橋渡しするオーケストレーテッド・フレームワークを提供しています。これらのプラットフォームは、デバイスのプロビジョニング、ワークロードの展開、セキュアな通信、ライフサイクル管理をサポートします。

  • AWS Greengrass Amazonのエッジフレームワークは、AWSサービスをエッジデバイスに拡張し、開発者がLambda関数を実行し、ローカルのメッセージングとステートを維持し、クラウドで学習したモデルを使用して機械学習推論を実行できるようにします。MQTTメッセージング、オフラインモード、AWS IoT Coreとのシームレスな同期をサポートしています。
  • Azure IoT EdgeDockerコンテナを介して、ストリーム分析、ML、カスタムロジックなどのAzureの機能をエッジデバイスに提供するフルマネージドサービスです。IoTシナリオにおける継続的インテグレーション(CI)および継続的デリバリー(CD)パイプラインのために、エッジモジュールオーケストレーション、コードオーバーザエアデプロイメント、およびAzure DevOpsとの豊富な統合をサポートします。
  • Google Cloud IoT EdgeGoogleCloudAIおよびデータサービスをエッジに拡張するために設計されたこのプラットフォームには、Edge TPUTensorFlow Lite、およびセキュアなデバイス管理のサポートが含まれています。AnthosGoogle Kubernetes Engineオンプレミス(GKEオンプレミス)ディストリビューションに押され、その開発は減速していますが、Googleを中心とした環境におけるビジョンや推論を多用するアプリケーションのための有効なソリューションであることに変わりはありません。
  • Edge Impulse:このリストにある他の3つのクラウドプラットフォームとは異なり、Edge Impulseはマイクロコントローラや制約のあるハードウェアに特化したMLの一種であるTinyMLに特化しています。このプラットフォームには、データ収集、モデル・トレーニング、オンデバイス・デプロイメント、パフォーマンス最適化ツールが含まれています。TinyMLは、インテリジェントなウェアラブル機器、センサ・ネットワーク、バッテリ駆動機器など、1バイトや1ミリアンペアが重要な機器を開発する開発者に愛用されています。

 

まとめ

 

エッジ・コンピューティングは、インテリジェント・システムの設計、構築、導入方法における極めて重要な転換点であり、エンジニアにとってエキサイティングな新境地を開くものです。 ローカルで、リアルタイムで、リソースに制約のあるデバイス上でデータを処理できるエッジコンピューティングは、AI、自動化、分析などの高度な機能を、データが生成される環境に直接もたらします。エッジコンピューティングは、その技術的な重要性だけでなく、一般データ保護規則(GDPR)のような主権やプライバシーに関する法律の台頭により、法律やビジネスの観点からも重要です。

この進化は、ますます強力になるマイクロコントローラ、エネルギー効率の高いAIアクセラレータ、軽量なMLフレームワークによって推進されています。AWS GreengrassやAzure IoT Edgeを含むプラットフォームは、TensorFlow LiteやNVIDIA Jetsonのようなツールとともに、かつては企業のデータセンターにしかなかったテクノロジーへのアクセスを民主化しています。今日、エンジニアは、自律型ロボットやスマート環境モニターから、コネクテッド・ウェアラブルや産業用オートメーション・システムまで、洗練されたインテリジェント・エッジ・アプリケーションのプロトタイプを作成し、展開することができます。

最終的には、エッジコンピューティングによってエンジニアはクラウド依存から解放され、より応答性、回復力、プライバシーに配慮した設計が可能になります。このアプローチは、技術的に強力であるだけでなく、接続されたデータ駆動型の世界においてますます必要とされています。エッジが進化し続ける中、エンジニアにとって、次世代のインテリジェントな分散型テクノロジーを形成する、かつてない機会を提供します。



« 戻る


 

マイケル・パークス:カスタム電子機器設計スタジオ・組み込みセキュリティ研究会社Green Shoe Garage (米国メリーランド州) の共同設立者。科学的・技術的トピックに対する社会の意識向上に向けてGears of Resistance Podcastを制作。メリーランド州プロフェッショナルエンジニア (P.E.) 資格を取得、ジョンズ・ホプキンス大学にてシステム工学で修士号を取得。

 


日付順