Opis
Unitree G1-D U10 jako platforma do Embodied AI z pełnym sprzężeniem zwrotnym
Unitree G1-D U10 to bezkompromisowa platforma badawcza do Embodied AI zaprojektowana tak, by łączyć stabilność bazy kołowej z precyzją manipulacji i czuciem kontaktu. Dzięki integracji z dłońmi Strong-Arm Revo 2 Tactile Edition robot nie tylko wykonuje ruch, ale aktywnie analizuje właściwości fizyczne obiektu w trakcie chwytu, co ma ogromne znaczenie w eksperymentach, gdzie liczy się kontrola siły, tarcia i reakcji materiału.
Dłonie Revo 2 Tactile Edition, które realnie „czują” obiekt
Najmocniejszym punktem tej konfiguracji są pięciopalczaste dłonie Strong-Arm Revo 2 w wersji Tactile Edition naśladujące zmysł dotyku, bo system multi-sensing wykrywa nacisk, tarcie i kierunek przyłożonej siły. Każda dłoń oferuje 6 stopni swobody i 11 stawów, ma 160 mm wysokości dla obsługi ludzkich narzędzi, a powtarzalność kontroli 0,1° i kamera RGB w każdej dłoni pozwalają łączyć dane wizyjne z dotykowymi podczas pracy z drobnymi elementami.
31 stopni swobody i praca na wysokości do około 2 metrów
Unitree G1-D U10 zapewnia 31 stopni swobody dla płynnej manipulacji i swobody ustawiania korpusu względem obiektu. Ramiona po 7 DoF współpracują z talią o szerokich zakresach ruchu w osiach Z i Y, a teleskopowa kolumna o skoku 450 mm i dokładności 1 mm umożliwia regulację wysokości do 1680 mm, dając pionowy zasięg roboczy do około 2 m i stabilne wykonywanie złożonych sekwencji bez utraty kontroli.
Baza kołowa z napędem różnicowym do szybkiej zmiany pozycji
Podwozie z napędem różnicowym zapewnia obrót o 360° w miejscu i umożliwia sprawne manewry w ciasnych przestrzeniach, co w laboratorium lub środowisku komercyjnym często decyduje o wygodzie pracy. Maksymalna prędkość do 1,5 m/s oraz wymiary bazy 570 × 525 × 197 mm dają stabilną podstawę pod precyzyjne działania, ograniczając ryzyko utraty równowagi i zwiększając przewidywalność zachowania robota.
Percepcja wielowarstwowa do autonomii i bezpiecznej nawigacji
System percepcji został zbudowany tak, by dostarczać pełny obraz sceny i punktu chwytu bez konieczności doposażania platformy. Robot korzysta z kamery binokularnej HD 3840 × 1200 w głowie, dwóch kamer HD 1920 × 1080 w nadgarstkach, kamer RGB w dłoniach, a podwozie wspierają LiDAR, dwie kamery głębi, czujniki kolizyjne i sensory niskich przeszkód, natomiast audio z matrycą czterech mikrofonów i głośnikiem 5 W pozwala na interakcję głosową i wydawanie komend.
100 TOPS do algorytmów AI i fuzji danych w czasie rzeczywistym
Za obliczenia odpowiada NVIDIA Jetson Orin 16G o mocy 100 TOPS wspierany przez 8-rdzeniowy procesor CPU, co daje przestrzeń na rozwój wymagających algorytmów sztucznej inteligencji. Taka konfiguracja wspiera pracę w symulacji i w realnym środowisku bez sztucznych ograniczeń wydajności, co jest kluczowe w