Wenn Live-Radio und On-Demand-Inhalte verschmelzen
nacamar entwickelt kostenfreie Software-Pakete, um Radiosendern den Weg in die hybride Zukunft zu ebnen.
Simon Buchholz, als Produktmanager beim Audiodienstleister nacamar entwickelst Du Software für hybride Audionutzung. Was bedeutet das?
Von hybrider Audionutzung spricht man, wenn zwei Audiowelten miteinander verschmelzen. Ein Beispiel ist der Radioempfang im Auto. Da bekommt der Nutzer gar nicht mit, ob er gerade über die UKW-Frequenz oder über das Internet hört. Der Bordcomputer entscheidet, welches Signal am besten ist und spielt es entsprechend aus.
In dem vom Journalismus Lab geförderten Projekt geht es um interaktives und personalisiertes Streaming. Dazu hat nacamar eine eigene Technologie namens Ybrid® entwickelt. Was kann diese Technologie?
Mit Ybrid® haben wir etwas geschaffen, das in der SWR3-App seit dem vergangenen Sommer auch schon erlebbar ist. Da kann ich als Nutzer oder Nutzerin selbst entscheiden: Möchte ich das Lied, das gerade im Radio läuft, hören oder nicht? Wenn es mir nicht gefällt, kann ich in der App den sogenannten Swapping-Button drücken, und dann wird mir ein alternativer Titel eingespielt – komplett synchron zum Live-Programm. Die Software errechnet, wie lange das Zeitfenster ist und wählt einen passenden Song aus einer Musikdatenbank aus. Dabei kann das Programm auch meinen Musikgeschmack berücksichtigen – vorausgesetzt ich habe ein entsprechendes Profil angelegt. Rechtzeitig zum Nachrichten- oder Moderationsbeginn wird der Song ausgeblendet und das Live-Programm übernimmt wieder. Es ist also eine Verschmelzung von Live- und On-Demand-Inhalten, die auf Basis der Nutzendenaktionen ausgewählt werden.
Das heißt, man holt sich das Beste raus aus beidem?
Exakt. Das ist auch der Trend, den man jetzt ganz stark in der Audiobranche sieht. Interaktive und personalisierte Inhalte geraten immer mehr in den Fokus. Damit müssen sich die Radiosender auseinandersetzen. Umgekehrt versuchen auch On-Demand-Anbieter wie Spotify, das Liveradio-Feeling in ihre Angebote zu integrieren.
Ihr entwickelt keine fertigen Apps, sondern sogenannte Software Development Kits. Was ist darunter zu verstehen?
Wir liefern Bausteine, an denen sich die Agenturen bedienen können, wenn sie Apps für Radiosender bauen. Ein Software Development Kit, kurz SDK, ist ein Software-Paket, das Funktionen in einer App übernehmen kann. Zum Beispiel eine Player-Funktion: Wenn ein Radiosender eine App installiert, braucht er einen Player. Den kann man selbst bauen oder man bedient sich eben an SDKs, die bereits zur Verfügung stehen.
Für welche Endgeräte entwickelt ihr die SDKs?
Das ist vielfältig. Es gibt iOS-SDKs für Apple-Geräte oder auch Android-SDKs. Man muss sich das so vorstellen: Alle Betriebssysteme, sei es auf dem Smartphone, auf dem Computer oder auch im Küchenradio, sprechen jeweils eine bestimmte Sprache. Und die SDKs sind genau auf diese Sprachen ausgelegt, deshalb gibt es ganz viele verschiedene.
Wo steht ihr derzeit bei dem Projekt?
Wir haben letzte Woche die SDKs für Android und für iOS gelauncht. Das heißt, wir haben sie auf die öffentlich zugängliche Entwicklerumgebung GitHub gestellt. Dort können sie als Open-Source-Software kostenlos heruntergeladen werden – inklusive einer Dokumentation, wie man sie verwenden kann (https://github.com/ybrid/).
Das ist ein Meilenstein. Welche weiteren Schritte folgen noch?
Als nächstes kommt die Timeshift-Funktion. Damit kann man sich innerhalb des Livestreams in einer Art Zeitleiste bewegen, zum Beispiel wenn man die Nachrichten zu spät eingeschaltet hat oder einen Beitrag noch mal anhören möchte. Dann spult man einfach ein bisschen zurück und springt anschließend wieder ins Live-Programm. Außerdem planen wir noch etwas anderes: Angenommen, ich arbeite in München, möchte aber weiterhin Neuigkeiten aus meiner Heimatstadt Bochum hören. Dann wird es künftig möglich sein, die Nachrichten des Bochumer Lokalradios automatisiert in meinen Stream einzubinden. Das ist keine Raketenwissenschaft, die noch Jahre braucht, sondern das kann schon sehr bald passieren.
Warum entwickeln Sie die SDKs als Open-Source-Software?
Wir sind überzeugt, dass der Markt sich schneller entwickelt, wenn neue Technologien frei zugänglich sind. Nicht nur ressourcenstarke Sender wie der öffentlich-rechtliche SWR haben Bedarf an personalisiertem Streaming, sondern auch kleinere Stationen. Die können sich aber vielleicht nicht leisten, eine Agentur daranzusetzen, die so etwas komplett baut. Daher haben wir uns entschlossen, die SDKs zu entwickeln und zur freien Verfügung zu stellen. Es ist uns wichtig, dass kein Marktteilnehmer von vornherein abgehängt wird.
Was sind die größten Herausforderungen bei dem Projekt?
Die Software, die wir entwickeln, ist hochkomplex. Da muss man schon am Anfang ganz viele Dinge bedenken und die Voraussetzungen dafür schaffen, dass so etwas wie Timeshifting später auch gut funktioniert. Für die Nutzerinnen und Nutzer soll das Hörerlebnis reibungsfrei ablaufen. Wenn man zum Beispiel Play drückt, sollte die Wiedergabe innerhalb von Millisekunden starten. Das ist aber keine Selbstverständlichkeit. Um die sogenannten Latenzen zu vermeiden, muss im Hintergrund viel getestet und gebaut werden. Diese Tüftelarbeit ist aber auch unser Steckenpferd, das macht uns aus.
Ist interaktives personalisiertes Streaming die Zukunft des Radios?
Ja, davon sind wir fest überzeugt, sonst würden wir den Weg nicht gehen.
Wann wird es Deiner Meinung nach flächendeckend eingesetzt?
Hoffentlich bald. Wir sind mit einer Agentur im Gespräch, für die wir den ersten Prototyp bauen. Wenn das Produkt reif ist, kommt die nächste Version auf GitHub, die dann bestenfalls von vielen Sendern verwendet wird. Je mehr es genutzt wird, desto mehr Erfahrungen können wir sammeln, um die SDKs weiter zu verbessern.
Die Entwicklung der Ybrid®-Technologie konnte das Journalismus Lab im Rahmen des Programms Audio Innovation unterstützen.