Zurück zu Projekten

HackaTUM 2025 Gewinner - LogiTune

Eine adaptive Musik-Engine, die einen Echtzeit-Soundtrack basierend auf Ihrem Arbeitszustand generiert - kombiniert Desktop-Aktivität, Webcam-Signale und physische Steuerung.

Technologie-Stack

Go Python TypeScript gRPC Strudel Electron

Überblick

LogiTune ist ein adaptives Musiksystem, das Sie in der Zone hält, indem es einen Soundtrack generiert, der auf Ihre Arbeitsweise reagiert. Durch die Fusion von Desktop-Aktivität, webcam-basierter Emotionserkennung und physischen Steuerungen schafft es ein personalisiertes Audio-Erlebnis, das Ihren Fokus und Ihr Energieniveau in Echtzeit anpasst.

🏆 Gewinner beim HackaTUM 2025 — Entwickelt in 36 Stunden bei einem der größten studentischen Hackathons Europas.

Funktionsweise

LogiTune übersetzt Signale aus mehreren Quellen in einen einzigartigen, adaptiven Soundtrack:

  • Desktop-Aktivität: Tastatur-, Maus- und Fensterfokus-Muster
  • Webcam-Analyse: Gesichts- und Pose-Tracking für Affekterkennung
  • Physische Steuerung: Logitech MX Keypad-Integration für taktile Overrides

Diese Signale werden zu Stimmungsvektoren (Fokus/Intensität) fusioniert, die eine Strudel-basierte Musik-Engine antreiben und Mix-Parameter wie Drum-Energie, Raum-Ambiente und Lead-Effekte dynamisch anpassen.

Architektur

Das System besteht aus mehreren verbundenen Komponenten:

  • visual-emotions (Python/MediaPipe): Verfolgt Gesicht und Pose, glättet Zustandswerte, veröffentlicht Kamera-Metriken
  • activity-monitor (Go): Protokolliert Tastatur, Maus und Fensterfokus; konvertiert Aktivität in Stimmungsskalen mit gewichteter Glättung
  • DJ (Go): Öffentliche gRPC-API zur Koordination von Stimmungsdiensten und Musikwiedergabe
  • sprudel-production (TypeScript/Electron): Strudel-Renderer-UI mit gRPC-Mixer-Steuerung
  • LogiTunePlugin: Hardware-Integration mit Play/Pause und Reset auf Deck-Buttons

Technische Herausforderungen

  • Übersetzen verrauschter Webcam- und Körpersignale in stabile Fokus-/Energie-Werte ohne zu starke Glättung
  • Ausbalancieren der Gewichte über Tastatur, Maus, Fenster und Kamera, sodass keine einzelne Quelle dominiert
  • Abbilden abstrakter Stimmungsdimensionen auf konkrete musikalische Änderungen, die sich absichtlich und nicht zufällig anfühlen
  • Feedback eng genug halten, dass die Musik reaktiv auf Ihren Zustand wirkt, nicht hinterherhinkt

Was kommt als Nächstes

  • Dynamische Gewichtung und Personalisierung der Stimmung-zu-Musik-Mappings
  • Reichhaltigere Mixer-Szenen und Effekte in der Strudel-Engine
  • Verbesserte Hardware-UX mit Status-Feedback und konfigurierbaren Steuerungen