618ZXW

XPengはLIDAR技術を放棄し、改良されたSUVからもそれを削除した。

XPengは再び LIDAR を「裏切った」

中国工業情報化部が今月発表した新車発表では、小鵬汽車はフェイスリフトされたSUV 2車種、G6G9を申請した。

外観の再設計とアップグレードとは別に、正面の写真から判断すると、LiDAR センサーの元の位置は空になっています。

MONA M03やP7+と同様に、G6とG9はAI Eagle Eyeピュアビジョンインテリジェント運転ソリューションを採用します。

いくつかの主要な新型車モデルがLIDARを廃止しているため、将来のXpengモデルは完全に視覚技術に依存する可能性がある。

XPeng は、LIDAR を組み込むためにモデルを更新する予定です。

今月、工業情報化部は新たに提出された車両モデルのリストを発表したが、その中にはXPengも含まれていた。

小鵬汽車は2台のSUVの大幅な再設計を申請しており、そのうちの1台は2022年に発売されたG9である。

外装デザインは、ロアグリルがドットマトリックスパターンから横棒パターンに変更され、ホイールのデザインが変更され、ツートンボディも用意されるなど、大きな変更はない。

パワー面では、二輪駆動と四輪駆動のオプションが用意されています。二輪駆動モーターのピーク出力は258kW、四輪駆動の前輪と後輪のピーク出力はそれぞれ165kWと258kWです。

バッテリーは三元系リチウム電池パックではなく、中創創航のリン酸鉄リチウム電池を搭載しています。

もう1つのモデルは2023年に発売されたG6で、G9と比べて外観が大きく変化しています。

ヘッドライトは分割されたライトストリップから単一のユニットに変更され、車のロゴは上方に移動され、黒いホイールアーチは取り外されました。

リアには小さなダックテールスポイラーデザインが採用され、オプションのリアウィングは取り外され、2つの新しいホイールオプションが用意されています。

パワー面では、依然として最高出力218kWのモーターを採用し、バッテリーもリン酸鉄リチウムに変更された。

フェイスリフトされた2台のフロントエンド写真からLIDARが消えていることにお気づきでしょうか?発表資料に示された構成情報にもLIDARは記載されていません。

MONA M03 と P7+ という、見た目だけの魅力にあふれた大ヒット製品 2 機種の発売以降、XPeng の焦点はますます見た目だけを重視した製品へと移行しているようです。

G6とG9には、LiDARの代わりに自社開発のAI Eagle Eyeピュアビジョンソリューションが搭載される可能性があります。

XPeng の LIDAR フリー ソリューションについては以前に説明しましたので、もう一度確認してみましょう。

ハードウェア面では、XPengのAI Eagle Eye Pure Visionは、 LOFIC( Lateral Overflow Integrated Capacitor)技術アーキテクチャを採用しています。前方双眼カメラと後方カメラを搭載し、視差を利用して人間の目が距離を認識するのと同じように障害物の奥行き距離を計算します。

簡単に言えば、カメラが捉える画像のピクセルは、本質的に「光情報の容器」です。容器に含まれる光が多ければ多いほど、画像はより明るく、より豊富な情報量になります。

LOFIC センサーにより、特に光のピークと谷が劇的に変化する超高コントラストのシーンにおいて、同じ照明条件下でピクセルがより多くの光情報を伝達できるようになります。

これは、ピクセルトラップの隣に追加の「ピット」を掘り、環境光情報の容量をさらに拡張するという意味にも取れます。これにより、現実のシーンにおける明暗の変化を可能な限り視覚信号に復元し、それを知覚モデルに入力することが可能になります。

小鵬氏がかつて述べたように、LOFIC技術はカメラの精度を向上させ、視認距離を向上させることができます。Eagle Eyeソリューションの色解像度は、低照度、逆光、そして光量差の大きい環境でも鮮明な視界を実現します。

知覚範囲に関して言えば、AIイーグルアイはサッカー場1.8面以上の視認範囲を持ち、180メートル先の物体を視認できるとのことで、前世代に比べて知覚距離は125%向上している。

AI Eagle Eyeビジョンソリューションは、前世代と比較して視覚情報の利用効率を8倍向上させ、 20%の計算能力を解放することで、大規模モデルの容量とパラメータ数を増やすことができます。視覚情報は情報変換を必要とせず、ニューラルネットワークへの入力として直接使用されます。

そのため、遅延は 100 ミリ秒短縮され、知覚と制御はより敏感になり、通行可能な空間を直接出力でき、経路計画情報はより直接的になり、応答はより速くなります。

MONA M03 と P7+ はどちらも Eagle Eye システムを採用しています。

MONA M03 の MAX バージョンは、XPeng の最新の純粋なビジョンベースの完全なソリューションであり、デュアル OrinX 508TOPS センサー、2 つのミリ波レーダー、12 の超音波レーダー、運転者支援用の 7 つのカメラ、および 4 つの 360 度高解像度サラウンドビュー カメラを備えています。

P7+は標準でデュアルOrin-Xチップを搭載し、508TOPSの演算能力を実現します。11台のカメラ、12台の超音波レーダー、3台のミリ波レーダーを搭載し、合計26個のセンシング素子を備えています。

純粋なビジョンを実現するには、大規模なデータのサポートが不可欠です。

アルゴリズム面では、XPeng は現在、エンドツーエンドのソリューションに車両側 + クラウド側の大規模モデルアプローチを使用しています。

車両側のモデルはXNGPですが、エクスペリエンスを真に大幅に向上させる鍵となるのは、大規模なクラウドベースのモデルです。

このアプローチは OpenAI と一致しており、モデルのサイズ、データのサイズ、トレーニングの計算を増やしてモデルのパフォーマンスを向上させるというスケーリング原則に従っています。

現在、XPeng のクラウドベースの大規模モデルのパラメータ数は車両ベースのモデルの 80 倍であり、計算能力は 10 EFLOPS です (2025 年までに)。

XPeng の純粋なビジョンベースのソリューションへの移行は、私たちが想像していたよりもずっと早く始まったのかもしれません。

XPeng は純粋な視覚への移行に備えていました。

XPeng が純粋なビジョンへと移行したのは、いくぶん予想外ではあるものの、まったく驚くべきことではありません。

驚くべきは、XPeng がもともと「新しいことに挑戦した最初の企業」だったからだ。同社は LiDAR を量産し、車両に搭載した最初の企業であり、現在、再び LiDAR を導入すると言っている。

XPeng は LiDAR に完全に注力しているわけではないので、それほど驚くことではありません。実際、彼らはずっと以前からLiDAR から離れる準備ができていたと言えます。

2021年、XPengはLiDARを搭載した初の車両となるP5をリリースしました。しかし、当時、何小鵬氏はLiDARがスマートカーにとってキラーハードウェアになるとは考えていないとも述べていました。

彼の見解では、認識の観点からはカメラの方が重要であり、LIDAR の役割はセキュリティを向上させることである。

P5以降のモデルであるP7i、G6、G9、X9にはすべてLIDARが搭載されています。

しかし、他の自動車メーカーがLIDARを「額」に取り付けているのとは異なり、XPengのLIDARは車の前部、ヘッドライトの下に、両側に1つずつ取り付けられている。

実際のところ、LIDAR を取り外しても形状や構造にはほとんど影響がありません。

この観点からすると、XPeng による LIDAR の削除は計画的な動きであった可能性があります。

実際、業界ではLiDARの廃止がトレンドになりつつあるようです。XPengに加え、LiDARフリーのソリューションを選択する企業が増えています。

言うまでもなく、 Extremeは純粋なビジュアルとエンドツーエンドのゲームプレイを提供する最初のプレーヤーです。

その後、ファーウェイは、高度なインテリジェント運転システムのより手頃な価格のバージョンとしてADS SEを発売しました。これは、Smart S7とDeep Blue S07に搭載されており、高速NOAとインテリジェントパーキングを可能にしています。

NIOのサブブランドであるLedaoも、LiDARを搭載せずにピュアビジョンチームに加わりました。

純粋にビジュアルなデザインはもはや「ニッチ」な道ではありません。

しかし、LIDAR を採用するかどうかは、依然として非常に議論の多い問題です。

ライダーが必要な安全上の冗長性を提供できると主張し、主に安全上の理由から、ライダーを撤去すべきではないと考える人もいます。

李斌氏は以前、ライダーはエアバッグのようなもので、主に極限の状況でバックアップを提供するために使われると語っていた。

さらに、LIDAR は高い浸透能力を備えており、夜間だけでなく、雨、雪、霧などの極端な気象条件でも動作できます。

しかし、純粋な視覚こそが最も効果的な方法だと主張する人もいます。その最も典型的な例は、ライダーの有力な批判者であるイーロン・マスクです。彼は次のように述べています。

複雑な道路運転環境では、生物学的神経ネットワークと目の視覚システムをシミュレートすることが最も効果的なアプローチです。

視覚技術の発達とカメラ認識能力の向上により、純粋な視覚の認識精度は LiDAR と同等になりました。

特定の極端な気象条件に直面した場合、視覚認識技術を他のセンサーと組み合わせることで、複数のソースのデータ融合とアルゴリズムの最適化を通じて、さまざまな気象条件下での環境の変化により適切に適応できます。

もちろん、最も重要な利点は、コストが大幅に削減され、消費者にとって価格競争力が増すことです。

どう思いますか?