Entwickler-Center

Alles was Sie brauchen, um fantastische Anwendungen mit Reachy Mini zu erstellen

In Minuten loslegen

Vom Auspacken bis zu Ihrer ersten interaktiven Anwendung

1. Hardware-Setup

Montieren Sie Ihren Reachy Mini nach unserer Schritt-für-Schritt-Anleitung. Das Kit enthält alle notwendigen Komponenten und dauert etwa 30 Minuten.

# Über USB-C (Lite) oder WiFi (Wireless) verbinden
# Automatische Roboter-Erkennung im Netzwerk

2. Python SDK installieren

Installieren Sie die offizielle Reachy Mini Python-Bibliothek mit vollem API-Zugang zu Motoren, Sensoren und KI-Fähigkeiten.

pip install reachy-mini
# oder
pip install reachy-mini[full]  # mit KI-Extras

3. Erstes Programm

Schreiben Sie Ihr erstes Reachy Mini Programm mit nur wenigen Zeilen Python-Code.

from reachy_mini import ReachyMini

robot = ReachyMini()
robot.head.look_at(0, 0, 30)
robot.antennas.happy()
robot.say("Hallo, ich bin Reachy Mini!")

4. Auf Hugging Face deployen

Teilen Sie Ihre Kreationen mit der Community über unsere Hugging Face Integration und App-Vorlagen.

# Unsere App-Vorlage verwenden
git clone https://github.com/pollen-robotics/reachy_mini_app_example
# Anpassen und auf HF Spaces deployen

Python API Referenz

Vollständige Kontrolle über jeden Aspekt Ihres Reachy Mini

Motor-Steuerung

Steuern Sie Reachy Mini's 6-DoF-Kopfbewegung, Basisrotation und Antennen-Animationen mit präziser Servo-Steuerung.

# Kopfbewegung (6 Freiheitsgrade)
robot.head.look_at(x=10, y=0, z=30)
robot.head.rotate(pitch=15, roll=0, yaw=45)

# Basisrotation (360°)
robot.base.turn_to(angle=90)

# Antennen-Ausdrücke
robot.antennas.wiggle()
robot.antennas.sad()

Vision & Audio

Zugriff auf Kamera-Feed, Mikrofon-Array und Lautsprecher für Computer Vision und Audio-Verarbeitungsanwendungen.

# Kamera-Zugriff
frame = robot.camera.get_frame()
robot.camera.start_streaming()

# Audio I/O
robot.microphones.listen()
robot.speaker.say("Hallo Welt")
robot.speaker.play_sound("beep.wav")

KI-Integration

Nahtlose Integration mit Hugging Face Modellen für Vision, Sprache und multimodale KI-Fähigkeiten.

# HF-Modelle direkt laden
from transformers import pipeline

# Vision-Modell
detector = pipeline("object-detection")
objects = detector(robot.camera.get_frame())

# Sprach-Modell
chatbot = pipeline("conversational")
response = chatbot("Wie geht es dir heute?")

Open Source Ressourcen

Vollständiger Zugang zu Hardware-Designs, Firmware und Software

Motor Controller

Rust-basierte Firmware für Reachy Mini's Stewart-Plattform-Halsmechanismus und Motor-Steuerungssystem.

App-Vorlagen

Einsatzbereite Vorlagen für die Erstellung und das Deployment von Reachy Mini Anwendungen auf Hugging Face Spaces.

Hardware CAD

Vollständige 3D-Modelle, Montageanleitungen und Modifikationsleitfäden für Reachy Mini Hardware.

ROS2 Integration

ROS2-Pakete und -Knoten für fortgeschrittene Robotik-Entwicklung und Integration mit bestehenden ROS-Workflows.

Benötigen Sie Hilfe beim Einstieg?

Treten Sie unserer Entwickler-Community bei und erhalten Sie Unterstützung vom Team

Discord Community

Treten Sie 1000+ Entwicklern bei, die mit Reachy Mini bauen

Discord beitreten

Dokumentation

Vollständige Leitfäden, Tutorials und API-Referenz

Docs anzeigen