|
ボストン・ダイナミクスのヒューマノイドロボットがまたもや全力を尽くし、YouTubeのトレンドチャートでトップとなり、50万回の視聴回数を獲得した。 リモート コントロールがなくても (完全自律型)、Atlas は完全に単独で動作できます。 Atlas に前方および後方の輸送位置の座標を伝えるだけで、次のようなアクションでアイテムを自動的に仕分けて梱包できます。 Atlas の一人称視点では、次のものが見えます。 「困難な」状況(物体が底にある)に直面しても、アトラスは冷静にしゃがみ込み、再びその課題を無事に完了しました。 さらに興味深いのは、アトラスが情報を間違えたことに気づいた後、突然、そして予想外にも、滑稽な方法で訂正したことです。(笑える、突然!) つまり、約 3 分間のデモで、Atlas は一連の印象的な動きを披露しました。頭、上半身、股関節を 360 度回転させ、いつでも向きを変えて後ろ向きに歩くことができました... 他のロボットがまだ歩行を学習中であるのに、アトラスは既に9時から5時までの仕事、あるいは007のような仕事を始めていると、ネットユーザーの中には驚いている人もいる。 ある同僚(倉庫総合ロボット会社 Nimble AI の創業者)は、Atlas がすでにはるかに先を進んでいると称賛しました。 Atlas がいかに素晴らしいかを知っているのはロボット工学の専門家だけです。 ネットユーザー:完全に自律?注目させられました。これは、ボストン・ダイナミクスが今年4月に油圧駆動から電動駆動に切り替えると発表した後、同社のヒューマノイドロボットが公に登場した数少ない機会の1つだ。 前回は8月末で、アトラスが腕立て伏せやスクワットなどの準備運動を一気に行えることを実演し、当時何百万人ものネットユーザーに衝撃を与えた。 最新のデモでは、アトラスは自動制御に焦点を合わせており、コンテナや移動式ワークショップ内でエンジンフードを自律的に移動できるようになりました。 ボストン・ダイナミクスによれば、アトラスは機械学習の視覚モデルを使用して環境の備品や個々の箱を検出して位置を特定し、操作対象の物体の状態を継続的に推定することでタスクを完了するための特殊な把持戦略を採用している。 ロボットは視覚、力、知覚を組み合わせて、環境の変化(固定装置の移動など)や動作の不具合(蓋の挿入の失敗、つまずき、環境衝突など)を検出して反応することができます。 彼らの最新のパフォーマンスを見た後、予想通り、彼らは再び多くのネットユーザーを驚かせた。 完全な自律性?ちょっと注目しちゃいました。 ネットユーザーたちはテスラのヒューマノイドロボット「オプティマス」についても言及している。 オプティマスは以前、テスラの発表イベントでもその能力を披露していた(オープニングダンス、人とじゃんけんをする、ワインを注ぐなど)が、その後、複数の関係者によって、現地で遠隔操作されていたことが証明された。 テスラはその後、オプティマスの自律航行を披露するデモを公開した。 ヒューマノイドロボットの分野で同等の人気を誇るこの2つの競合相手について、ネットユーザーはそれぞれの立場を取り、最終的に「合意」に達した。 両者の違いは大量生産にあります。ボストン・ダイナミクスは個々の能力が強く、一方テスラは商業的な大量生産においてより大きな優位性を持っています。 根底にある論理は単純です。つまり、ヒューマノイドロボットは最終的に消費者市場に参入するということです。 いずれにせよ、360°回転できるボディやヘッドなど、アトラスが示したディテールはすでに非常に驚くべきものです。 それを奇妙に思う人もいたが、ほとんどの人は楽観的だった。 ヒューマノイドロボットは進化させるのではなく設計できるという事実は、工学原理を解明すれば、トランスフォーマーやエクソシストのようなあらゆる種類の能力が実現可能になる可能性があることを意味します。 さらに、Atlas がなぜ 360° パノラマ カメラを使用せず、代わりにヘッドを回転させる必要があるのか疑問に思う人もいます。 一部のネットユーザーは、最大の理由はコスト管理だと推測した。 高解像度の深度カメラは高価(帯域幅と計算の点で)なので、超高密度センサーを作業スペース内の場所に限定するのが合理的です。 それでもダメなら、「低品質の 360° パノラマビジョン + 一方向を向いた高品質のカメラ/LiDAR」を使うこともできます (ネットユーザーの提案による)。 もう一つReddit での白熱した議論の中で、一部のユーザーが考えさせられる質問をしました。 ロボットがこの種の作業(物品の再梱包)を行うのは無意味に思えます。これをもっと実生活に即したものにすることは可能でしょうか? これに対して、アトラスが使用するテクノロジーについて懸念を表明する人もいます。ポイントベースやプランナー/オプティマイザーのテクノロジーは、一般化能力の点ではニューラル ネットワークほど優れていない可能性があります。 そして今、NVIDIA は、ヒューマノイド ロボットの全身動作と操作調整のために、150 万のパラメータを備えたニューラル ネットワーク コントローラHOVER をリリースしました。 NVIDIA の GEAR (Body Intelligence Lab) の責任者である Jim Fan 氏は次のように語っています。
簡単に言うと、HOVERは様々なコマンドを実行するよう指示することができ、Nvidiaはこれを「コントロールモード」と呼んでいます。例えば:
要約すると、HOVER は、あらゆる便利な入力デバイスを使用してロボットを制御できる統合インターフェースを提供します。 全身のリモート コントロール操作データを収集する方法が簡素化され、トレーニングが容易になります。また、上流の視覚言語動作モデルとして、HOVER は動作コマンドを高周波の低レベル モーター信号に変換できます。 これについてどう思いますか? |
ボストン・ダイナミクス社の電動ロボットが工場で稼働し、遠隔操作なしで完全に自律的に動作する様子を50万人がオンラインで視聴している。
関連するおすすめ記事
-
インテリジェント開発 | モバイル開発エクスペリエンスの向上、効率性の向上
-
大規模モデルこそが新たなデータベース!アント・ファイナンシャルのオープンソース部門責任者、王旭氏:アプリケーション開発の新たなパラダイム、次世代LAMPが形作られつつある | MEET 2025
-
アント・ファイナンシャルのユ・ビン氏:AIを活用したクラウド製品のアップグレードでAIネイティブ時代への移行を加速
-
気まずい!ChatGPTが新しいモデルを発表、コメント欄が裏目に…
-
殿下、文勝図の時代がまた変わりました!SDコアメンバーが起業し、最初のモデルであるFLUX.1がSD3やMidjourneyと熾烈な戦いを繰り広げています。
-
5分間のライトニングプレゼンテーションの準備方法:COSCon'24 ライトニングプレゼンテーション登録情報