(出典:Mike Mareen - stock.adobe.com)
自動運転車はもう間もなくあちらこちらで見かけることになるでしょう。しかし、多種多様な実環境において真の自律走行が実現するのは、まだ当分先の話です。人間のドライバーは依然として目の前の状況に注意を払う必要があり、実験用の自動車の車内も、あまり動きのない実験室のような環境であるようです。人間中心の人工知能 (AI) 企業として2013年に設立したEyerisは、車内の状況を監視して、人間が状況を把握しているかさらにその重要なタスクを実行できる環境であるかを確認することで、より安全で快適な運転の実現を目指しています。
車外に比べ動きのない車内でも、様々な課題があります。車内にはドライバーだけのときもあれば、男性または女性、小さな子どもから100kgを超える大人まで、複数の同乗者がいるときもあります。これに加え、人間の肌の色はそれぞれ違い、また身につけている衣類やアクセサリーも違えば、照明条件や温度も違うため、この「実験室環境」はかなり複雑な実験となります。さらに、ペットが乗っていたり、昨日食べたハンバーガーの包み紙が後部座席に残っていたり、携帯電話が助手席に落ちていたりなど、様々な状況を考慮しなければなりません。
1つのセンサシステムで視線追跡などの優れた機能を実現できるかもしれませんが、EyerisはAIソフトウェア企業として、様々なハードウェアセンサを融合することに力を注いでいます。車内の状況全体を把握するために、従来の赤外線 (IR) センサはもちろん、最近のRGB-IR (赤・緑・青・赤外線) センサ、サーマルイメージャ、レーダーまで、様々なセンシング技術を持つハードウェアメーカーと提携しており、またAIルーチンを実行するために幅広いプロセッサメーカーとも連携しています。このようにセンサを融合し、膨大なデータセットをトレーニングに使用すれば、人間と同じように視覚、聴覚、触覚、嗅覚、時に味覚を一度に正確に解釈できるようになり、複雑なタスクを実行できます。さらに、AIシステムの実行に必要な演算能力に加え、カメラハードウェアやセンサ処理モジュール、自動車の処理ハードウェア間の接続にも着目しなければなりません。例えば、Eyerisはリファレンス設計にMaximのMAX96706デシリアライザを使って、MIPI (Mobile Industry Processor Interface) ベースのイメージセンサとカメラモジュールをAI処理ボードに接続し、成功しています。車載用電子機器の統合がますます進む中で、このデータ伝送の処理と抽象化を確実に行う方法を検討することが大切です。
メーカーは幅広い車種を製造しているため、どの車種にも容易に統合できる、秩序だったシステムがあれば、市場投入までの開発コストと時間を大幅に削減できます。
この数十年間、演算能力とハードウェアの技術革新は驚異的な進歩を遂げました。とはいえ、ソフトウェアの技術革新サイクルは当然のことながらハードウェアよりもはるかに早く、そのためハードウェアメーカーはソフトウェアの「後追い」モードに陥ることがあります。テスラやAppleといった企業が、自社ソフトウェアの改善に合わせて、独自のAIハードウェアを製造するのはこのためです。
様々な既存のハードウェアメーカーと提携している小規模なソフトウェア/AI企業は、適切な演算能力だけでなく、TensorFlow、PyTorch、ONNXといった最新のAIフレームワークと互換性のある、成熟したソフトウェアスタックとソフトウェア開発キット (SDK) を提供することが重要です。提供するコンパイラは、成熟したソフトウェアエミュレータ、シミュレーションエンジン、およびAIモデル解析、枝刈り、量子化などのタスク用関連ツールを用いて、最新のニューラルネットワーク層に対応する必要があります。最後に、組み込み立体視差エンジン、マルチカメラストリーミング機能、リッチ入出力 (I/O) など、センサ融合タスクを有効にすることも驚くほど効果的です。AIとAIシステムの構成要素が、ノイズを回避して広範囲のデータを処理できるようになります。
このブログのテーマは車内のセンシングですが、範囲を広げてみると、これまでビジョン専用のAI設定を選ぶのが合理的と思われていた場面でも、特定のユースケースには十分でないかもしれません。特にセーフティクリティカルなアプリケーションの場合、ビジョンセンサは照明が適切であればほぼ常時、正常に機能しますが、照明が適切でなければとても十分とは言えません。このような場合は、RGB可視発光装置、IRセンサ、レーダー、または存在検出強化用のサーマルセンサなどを追加して、センシング能力を強化すると、AIは環境を十分に監視して制御できるかもしれません。
数十億ドル規模の企業なら、自社チップを開発するリソースがあるでしょう。でも、リソースがない企業は、小さくて小回りが利くAI企業に任せればいいのです。その場合は、適切なハードウェアパートナーを特定し、教育し、協業を図り、自動車・その他産業向けのオールインワン製品を制作します。より優れたハードウェアとソフトウェアのインターフェイスツールを利用できれば、AIソフトウェアの設定は容易になり、優れた製品をより迅速に生産できます。適切なデータ、ツール、AIトレーニングがあれば、システムを利用する人はもちろん、社会全体のために、より良く安全な世界を作ることができるのです。
モダー・アラウィは、人工知能 (AI) を専門とする科学技術者で、コンピュータビジョンAIを用いた人間行動の理解・モデリング・予測の分野における先駆者として知られる。現在は、自動運転車および高度自動化車両 (HAV) に搭載されるインキャビン・センシング (ICS) AIの世界的なパイオニアでリーダーでもあるEyeris社の創業者兼CEOを務める。
アラウィは、コンピュータビジョンおよび人間中心の応用AIの分野における10年以上にわたる経験を活かし、多種多様な企業アプリケーションに従事する。現在は、身体、顔、モノ、表面を認識するAIを用いた予測不可能なインターフェイスによる、ヒューマンマシンインタラクションの課題克服に注力。また、AI分野の新たな最先端である「人間中心の環境知能」に関する講演者・基調演説者としても活躍。AI技術を用いた人間行動理解 (HBU) を専門的に学び、カナダのコンコルディア大学を卒業。これまでにテクノロジーおよびイノベーション関連の国際的な賞を複数回授与され、その功績は「ブルームバーグ」「ウォール・ストリート・ジャーナル」「WIRED」「タイム」「CNBC」「ロイター」「Fast Company」といった数々の大手国際メディアにおいて12か国語以上で紹介されている。