HackaTUM 2025 Gewinner - LogiTune
Eine adaptive Musik-Engine, die einen Echtzeit-Soundtrack basierend auf Ihrem Arbeitszustand generiert - kombiniert Desktop-Aktivität, Webcam-Signale und physische Steuerung.
Technologie-Stack
Überblick
LogiTune ist ein adaptives Musiksystem, das Sie in der Zone hält, indem es einen Soundtrack generiert, der auf Ihre Arbeitsweise reagiert. Durch die Fusion von Desktop-Aktivität, webcam-basierter Emotionserkennung und physischen Steuerungen schafft es ein personalisiertes Audio-Erlebnis, das Ihren Fokus und Ihr Energieniveau in Echtzeit anpasst.
🏆 Gewinner beim HackaTUM 2025 — Entwickelt in 36 Stunden bei einem der größten studentischen Hackathons Europas.
Funktionsweise
LogiTune übersetzt Signale aus mehreren Quellen in einen einzigartigen, adaptiven Soundtrack:
- Desktop-Aktivität: Tastatur-, Maus- und Fensterfokus-Muster
- Webcam-Analyse: Gesichts- und Pose-Tracking für Affekterkennung
- Physische Steuerung: Logitech MX Keypad-Integration für taktile Overrides
Diese Signale werden zu Stimmungsvektoren (Fokus/Intensität) fusioniert, die eine Strudel-basierte Musik-Engine antreiben und Mix-Parameter wie Drum-Energie, Raum-Ambiente und Lead-Effekte dynamisch anpassen.
Architektur
Das System besteht aus mehreren verbundenen Komponenten:
- visual-emotions (Python/MediaPipe): Verfolgt Gesicht und Pose, glättet Zustandswerte, veröffentlicht Kamera-Metriken
- activity-monitor (Go): Protokolliert Tastatur, Maus und Fensterfokus; konvertiert Aktivität in Stimmungsskalen mit gewichteter Glättung
- DJ (Go): Öffentliche gRPC-API zur Koordination von Stimmungsdiensten und Musikwiedergabe
- sprudel-production (TypeScript/Electron): Strudel-Renderer-UI mit gRPC-Mixer-Steuerung
- LogiTunePlugin: Hardware-Integration mit Play/Pause und Reset auf Deck-Buttons
Technische Herausforderungen
- Übersetzen verrauschter Webcam- und Körpersignale in stabile Fokus-/Energie-Werte ohne zu starke Glättung
- Ausbalancieren der Gewichte über Tastatur, Maus, Fenster und Kamera, sodass keine einzelne Quelle dominiert
- Abbilden abstrakter Stimmungsdimensionen auf konkrete musikalische Änderungen, die sich absichtlich und nicht zufällig anfühlen
- Feedback eng genug halten, dass die Musik reaktiv auf Ihren Zustand wirkt, nicht hinterherhinkt
Was kommt als Nächstes
- Dynamische Gewichtung und Personalisierung der Stimmung-zu-Musik-Mappings
- Reichhaltigere Mixer-Szenen und Effekte in der Strudel-Engine
- Verbesserte Hardware-UX mit Status-Feedback und konfigurierbaren Steuerungen