Digital Stage – Hoffnung für die Musik

Für Musiker*innen ist die aktuelle Situation durch abgesagte oder nicht planbare Veranstaltungen und Tourneen wirtschaftlich bedrohlich. Mehr noch, die deutlich begrenzten Möglichkeiten zu proben oder sonst gemeinsam Musik zu machen schränken das gesamte künstlerische Leben nachhaltig ein. Bereits im März entstand deshalb im Rahmen des Hackathons der Bundesregierung die Initiative Digital Stage, die sich an die Lösung dieser Probleme machte.

Das nachfolgende Interview führte ich kürzlich mit Kerstin Wiehe, selbst Sängerin und zuständig für die Presse- und Öffentlichkeitsarbeit und André Siebelist, der die Softwareentwicklung koordiniert.

Frank B. Sonder: Danke, dass ihr Euch die Zeit nehmt, uns mit dem Projekt Digital Stage bekannt zu machen. Aus welchen Grundbedürfnissen ist das damals entstanden? Damals kann man ja schon sagen, es war schliesslich schon im März. Was war die Initialzündung, das Problem, das ihr gesehen habt?

André Siebelist: Zum einen war ja die Corona Pandemie in vollem Lauf und wir hatten sehr, sehr viele Chöre und sehr, sehr viele Musiker, Orchester und Ensembles, die einfach gar nicht mehr miteinander musizieren und performen konnten. Da hat sich dann in dem Hackathon der Bundesregierung eine Gruppe etabliert, die sich des Problems annehmen wollte. Im ersten Schritt ist es also erst einmal eine Community gewesen. Wir wollten das voranbringen, so dass die Leute wieder gemeinsam musizieren und auftreten können. Es ging im ersten Schritt gar nicht darum, eine Softwarelösung dafür zu entwickeln.

Eine der Größten ist halt die Latenz. Das merkt man, wenn man mal versucht, in einer der gängigen Tools gemeinsam zu zählen oder zu klatschen. Das funktioniert nicht.

André Siebelist

Dann haben wir ganz viele Lösungen verglichen, wie viele andere auch. Wir haben uns mit Zoom und Hangout, mit den ganzen verschiedenen Softwarelösungen beschäftigt und wollten eigentlich zunächst feststellen, welche Schwierigkeiten es überhaupt gibt. Eine der Größten ist halt die Latenz. Das merkt man, wenn man mal versucht, in einer der gängigen Tools gemeinsam zu zählen oder zu klatschen. Das funktioniert nicht. Und dann kommen noch ganz viele andere Problematiken hinzu, wie zum Beispiel die Pegelwaage und dominante Speaker. Letzteres bedeutet, dass, wenn mehrere Leute gleichzeitig reden, der weniger dominante Part leiser gestellt wird. Und um diese ganzen Probleme ein wenig aus der Welt zu schaffen, haben wir einen Prototyp entworfen. Das ist eine Lösung gewesen, die auf Basis eines Low-Level-Übertragungsweges funktionierte. Wir haben eine ganz einfache Datenübertragung zwischen zwei End-to-End Punkten geschaffen und das war eigentlich der erste Entwurf, den wir als Softwarelösung hatten.

Pegelwaage bedeutet, dass automatisch immer die leiseren Teilnehmer in den Hintergrund gedrängt werden. Die minimalen Zeitverschiebungen bei der Übertragung der verschiedenen Kanäle führen dazu, dass die Stimmen nicht synchron erklingen.

FBS: War das Problem eigentlich sofort so deutlich präsent?

AS; Das war ziemlich schnell klar. Kerstin kann da sicher mehr zu sagen? Ich bin selber ja vor allem Entwickler und nur privat Musiker.

Kerstin Wiehe: Ich kann es gerne ergänzen. Ich bin selbst Sängerin und es war ziemlich schnell klar, dass es eigentlich keine Lösung ist, die bestehenden Konferenzsysteme zu verwenden, weil du wegen der Latenz nicht die Möglichkeit hattest, aufeinander zu reagieren oder einander zu hören. Zoom ist dafür das beste Beispiel. Es wurde von vielen Chören verwendet. Aber es reicht nicht mal dazu aus, dass der Chorleiter mit seinem Dirigat synchron ist. Das heißt, du musstest schon parallel Bänder abspielen und jeder der Teilnehmenden hat sich stumm geschaltet. Man sieht sich zwar, aber man hört sich nicht. Jeder singt eigentlich für sich und irgendwie war das nur eine Notlösung, damit man ein bisschen sozialen Kontakt hatte und nicht jeder alleine zu Hause in Depressionen verfiel. Insofern war die Aufgabenstellung schon ziemlich schnell während des Hackathons klar: Wie können wir alles synchronisieren und die Latenz verringern. Das Team ist auf diesem Weg dann auch ziemlich schnell angewachsen.

FBS: Jetzt habt ihr gerade schon ein paar Punkte angesprochen, die es erschweren, online Musik zu machen. Was auf den allerersten Blick total verständlich ist, ist das Problem der Latenz, d.h. der zeitlichen Verzögerung, die in den Anwendungsfällen für Videokonferenzen weniger ins Gewicht fällt. Wenn ich das richtig verstanden habe, gibt es eine ganze Menge mehr Probleme und Latenz ist nur eines von vielen. Könnt ihr ein paar weitere Schwierigkeiten erläutern, die jetzt auch durch die Lösung von Digital Stage angegangen werden.

AS: Ja, genau. Latenz ist halt wirklich eines der größten Probleme. Wie schon gesagt, ist auch die Audioqualität auf Sprache ausgelegt. Bei Konferenzsystemen ist es so eingestellt, dass der Bereich, der übertragen wird, so klein wie möglich gehalten wird und nur auf die Sprachübertragung ausgelegt ist. Man kann zwar mittlerweile bei Zoom die erweiterten Audioeinstellungen aktivieren und dadurch ein bisschen mehr einstellen. Aber es reicht zum Beispiel nicht, um ein Musikinstrument zu übertragen. Wenn man mal eine Oboe über eine Videokonferenz gehört hat und parallel über ein anderes System, dann merkt man ganz schnell, wo der Unterschied ist, wo die Bandbreite fehlt. Das ist halt auch eine Sache, die wir auf jeden Fall ändern wollten und die man auch extrem hört, wenn man mal Konferenzsoftware mit unserer Lösung vergleicht. Vor allem mit der Boxlösung, die von ORLANDOviols entworfen worden ist.

FBS: Es sind ja auch Themen, die etwas mit Präsenz zu tun haben. Das Bewusstsein für den Ort, für Richtungen und Abstände, ist ja etwas ganz Wesentliches, das zu dem Latenzproblem hinzukommt.

KW: Das ist natürlich für Chöre besonders wichtig. Auf jeden Fall eine sehr wichtige Zielgruppe für unser Projekt. Natürlich gibt es dafür auch sehr spannende technische Ideen und Lösungen. Dass man zum Beispiel die Stimmen separieren kann, so dass man sich besser hört. Es geht ja letztendlich bei allen Dingen auch immer um Datenübertragungsraten. Und natürlich ist der Raum und das Einanderhören total wichtig. Aber die Verbindung schafft das digitale Tool, das zur Verfügung steht.

Workspace Awarness. Eine traditionelle Musikperformance ist ein Beispiel für eine sehr enge, synergetische Zusammenarbeit, bei der die Musikerinnen ein hohes Maß an Bewusstsein für den Raum haben. Jeder ist sich nicht nur der eigenen Rolle bewusst, sondern auch der seiner Mitmusikerinnen. Gestik, Mimik und Bewegungen der anderen Musikerinnen spielen dabei ebenso eine Rolle wie die von ihren Instrumenten ausgehenden Klänge. Studien haben gezeigt, dass Musiker sehr sensibel auf die akustische Reaktion des Umfelds reagieren. Im Idealfall würde eine Softwarelösung dem hohen Grad an Bewusstsein entsprechen, das Künstlerinnen auch bei einem realen Auftritt erleben.

AS: Die OV Box, die wir bei uns integrieren beziehungsweise den OV Client von ORLANDOviols, der bietet schon ein 3D Audio Rendering. Das heißt, wir haben integriert, dass der eine Sänger vor einem Links sitzt und der andere Sänger vor einem rechts sitzt und man tatsächlich den Kopf drehen kann. Das wird In einer Ausbaustufe der Fall sein, wo man einen kleinen Empfänger am Kopfhörer angebracht hat. Das ist natürlich schon ein bisschen Hightech, sagen wir mal, aber das ist auch gar nicht so teuer und gar nicht so aufwendig, das umzusetzen. Die Erfahrung, die man dadurch bekommt, einen einfach rechts und den anderen links zu hören, ist schon enorm. Auch die Akustik kann beeinflusst werden. Mit dieser Technik kann zum Beispiel ein großer Raum emuliert werden. Und das sorgt dafür, dass man auch tatsächlich das Gefühl bekommt, wie in einer Kirche oder wie in einem Probenraum zu sein.

FBS: Jetzt sind ja Konzerte das eine, Proben das andere. Die sind ja gerade jetzt eine mindestens genauso wichtige Komponente, weil die Musiker*innen sonst auch raus sind und der soziale Zusammenhalt total fehlt. Sind das Eure beiden Anwendungsfelder?

AS: Ja. Nicht nur im musikalischen Bereich. Auch für Theater- und Tanzgruppen zum Beispiel wollen wir eine Möglichkeit bieten, dass diese bei uns tanzen und performen können. Aber im ersten Schritt natürlich erstmal für die Sänger*innen und für die Chöre, um gemeinsam wieder proben und dann natürlich im zweiten Schritt auch aufzutreten zu können. Da arbeiten wir zum Beispiel auch an Streamingmöglichkeiten, so dass man nicht nur seinen Bildschirm und den Ton aufnimmt, sondern dass man tatsächlich eine Distribution direkt aus der Anwendung heraus realisieren kann. Also zum Beispiel direkt auf YouTube.

FBS: Video spielt ja bei Euch ebenso eine Rolle. Das lässt sich gut in eurer Designstudie sehen. Welche Potentiale seht ihr da?

AS: Natürlich kann man keine Lippensynchronität erreichen. Das ist einfach von der Technik her gar nicht möglich. Das ist ganz schwer zu erreichen, denn dafür müsste man im Prinzip Latenz einbauen. Der Ansatz, der dann meistens gewählt wird ist, dass man einen synchronisierten Klick oder ähnliches anstatt eines Dirigenten hat, der den Takt vorgibt. Das ist einfach eine technischere Lösung. Das sorgt aber natürlich dafür, dass die Sänger*innen sich ein bisschen anders einstellen müssen auf das, wie sie singen und wie sie proben. Man kann halt nicht mehr sehen, dass der Nachbar neben einem einatmet. Man hört es vielleicht auf eine gewisse Art und Weise, aber da geht dennoch ein Stück von dem, wie man normalerweise singt, verloren und man muss sich ein bisschen daran gewöhnen, über diese Tools zu musizieren.

Designstudie von Digital Stage

FBS: Kerstin, wie war es, Dich daran zu gewöhnen?

KW: Ich finde das auf jeden Fall sehr, sehr spannend und wir haben auch schon mit Chören Tests gemacht. Da gibt es teilweise technische Herausforderung, wo wir noch mittendrin stecken, die dann auch zu lösen. Aber es gab auf jeden Fall ein sehr positives Feedback. Auch von der Soundqualität und dem Gefühl, miteinander zu interagieren. Ich sag immer, es gibt kein davor mehr, sondern es gibt nur noch ein damit oder danach. Das ist insofern total wichtig, um es wirklich als Chance zu sehen, Herausforderung und Chance zugleich. Denn ich glaube, dass gerade bei Chören oftmals auch sehr alte Menschen dabei sind und damit die Gefährdung auch längerfristig noch erhalten bleiben wird. Das wird uns noch sehr lange beschäftigen. Ich habe sehr viel mit Chören gesprochen und auch an verschiedensten Chorproben mit Zoom und anderen Tools teilgenommen und ich fand es alles extrem unbefriedigend. Trotzdem waren da die Chormitglieder, die diese Tools verwendet haben, die meinten, dass das Socialising, das man sich sieht und das man hinterher nochmal kurz quatschen kann, ungeheuer wichtig ist. Aber das gemeinschaftliche Musizieren funktioniert eben nicht wirklich, Insofern glaube ich, dass wir da einfach auf einem sehr guten Weg sind, ein hervorragendes Tool auch für die musikalische Qualität zu bieten.

Es gibt kein davor mehr, sondern es gibt nur noch ein damit oder danach.

Kerstin Wiehe

FBS: Verstehe ich das richtig, dass es vor allem eine technische, softwareseitige Optimierung ist? Ich hatte mal überlegt, das sich ja auch bestimmte Dinge künstlich verlangsamen ließen, damit es dann wieder synchron ist. Spielen solche Gedanken, auch in Richtung künstlicher Intelligenz eine Rolle, die Muster erkennt und dann künstlich synchronisiert?

AS: Für die Nachproduktion oder für die Distribution von so einem Video wird das mit Sicherheit irgendwie in Betracht gezogen werden müssen. Solche Technologien und so eine Synchronisierung im Nachhinein. Für das Singen und für das Performen selber wird es schwierig, denn wir arbeiten hier in einem Latenzbereich von 40 Millisekunden, der für Sänger optimal ist. Wenngleich nicht hundertprozentig. Es gibt auch Stücke, die brauchen eine noch geringere Latenz. Die sind dann ein bisschen herausfordernder. Diese Millisekunden, die du dann verlieren würdest, wenn man eine KI verwendet, werden auf jeden Fall dafür sorgen, dass man das nicht just-in-time machen kann, sondern immer erst in der Nachproduktion.

FBS: Jetzt hast du gerade eine Zahl genannt, 40 Millisekunden. Ist das das Ziel oder kann man da noch drunter gehen? Ich habe gelesen, dass selbst auf einer normalen Bühne, die eine gewissen Grösse hat, Latenz da ist. Also gab es das Problem auch schon lange vorher, es hat sich nur keiner dessen angenommen.

AS: Man hat auf einer Bühne, wenn man 5 Meter auseinander steht, schon eine Latenz zwischen 30 und 45 Millisekunden, je nach Raum. Wenn man dann auch mit einberechnet, dass der Raum sehr groß ist, dann schluckt er selbst natürlich auch Klang und Schall. Das Ziel ist, bei der Latenz so gering wie möglich zu landen. Egal, ob es jetzt darum geht, etwas zu performen oder etwas aufzunehmen. Man schafft mit unserer OV Box eine Latenz von etwa 25 bis 35 Millisekunden. Da ist man schon ziemlich schnell. Denn man muss sich vorstellen, das selbst ein Steinberger Interface, das ein paar hundert Euro kostet, eine Latenz von etwa 16 Millisekunden hat. Von der analogen Tonaufnahme bis hin zum Rechner. Da sind natürlich Grenzen gesetzt. Es gibt einige, die schneller sind, mit 8 bis 10 Millisekunden, aber da ist halt auch eine technische Grenze irgendwo. Man arbeitet dann entsprechend daran, die Komponenten zwischen den Endgeräten so kurz wie möglich zu halten.

FBS: Jetzt hast du schon mehrfach die OV Box erwähnt. Kannst Du uns mal erzählen, welche Lösungen es denn jetzt konkret gibt und welchen Status die einzelnen Lösungen haben. Und als Anschlussfrage, wenn das jetzt jemand nutzen wollen würde, was muss ein Chor oder eine Musikerin, ein Musiker, tun?

AS: Wir haben zum einen eine Webversion. Das ist praktisch das, was wir als Prototyp begonnen und in den letzten Monaten noch weiterentwickelt haben. Das ist eine Webanwendung, die einfach im Browserfenster läuft. Die hat allerdings eine Latenz von 80 bis 100 Millisekunden, weil der Browser eine Begrenzung hat. Man muss tatsächlich sagen, dass der Chrome-Browser selbst für eine Latenz sorgt, einfach weil er sagt, wenn ich das schneller machen würde, dann sorgt das dafür, dass ich zu viel Arbeitsspeicher oder zu viel Prozessorleistung verbrauche. Das wäre die eine Lösung mit einer ganz niedrigen Einstiegsschwelle, die vor allem für Chöre geeignet ist. Es ist so einfach, das man da wirklich drauf gehen und loslegen kann. Man muss nicht irgendwelche Einstellungen im Router ändern oder eine Software installieren. Ich starte meinen Rechner, verbinde den mit dem Netzwerk, schließe ein Mikrofon oder Headset an und kann loslegen.

FBS: Die Lösung kann jetzt schon jeder benutzen, der sich bei euch anmeldet?

AS: Genau, die ist momentan in der Beta. Das heißt, sie ist momentan öffentlich und kostenlos. Sie wird natürlich, wenn sie endlich in einem Release Stadium ist, irgendwann darauf beschränkt, dass Organisationen und entsprechend Chöre die Möglichkeit kriegen, dort Stages zu erstellen und damit zu musizieren. Wir wollen nicht, dass diese Stages für andere Sachen genutzt werden. Das würde dafür sorgen, dass die Latenz wieder bei denen hochgeht, die es tatsächlich für das Musizieren nutzen wollen. Ich könnte mir zum Beispiel vorstellen, das in der Computer Gaming Branche, wo es auch häufig um Millisekunden geht, unsere höhere Schnelligkeit und Qualität auf Interesse stossen wird. Und da muss man sagen, die wollen wir halt nicht ausschließen, aber zumindestens nicht auf der gleichen Plattform haben wie unsere Musiker. Denn das sorgt einfach für eine Latenz, die wir nicht wollen.

FBS: Weil dann Eure Server das alles abfangen müssen?

AS: Richtig.

FBS: Die anderen Lösungen, die es geben soll, kannst Du die bitte erläutern?

AS: Der Client wird eine Software sein, also etwas, das man auf seinem Computer installiert. Er wird auch von ORLANDOviols entwickelt und ist ein Open Source Software. Wir nutzen den Client und bauen den praktisch in unsere Software ein. Das heißt, man würde sich trotzdem über den Browser auf unserer Seite anmelden und dann aber über den sogenannten OV Client miteinander kommunizieren. Es ist ein Web-Frontend, das auf diesen Client zugreift.

FBS: Das heißt, man muss eine Applikation auf seinem Gerät installieren.

AS: Ja, genau.

FBS: Jetzt erwähntest Du schon öfters ORLANDOviols. Kannst Du Eure Zusammenarbeit mal näher erklären?

AS: ORLANDOviols ist ein kleines Ensemble. Die haben schon ganz früh, weil sie relativ weit auseinander gewohnt haben, entdeckt, dass sie miteinander musizieren wollen und halt nicht immer Zeit haben, sich zu treffen. Und weil auch ein Proberaum immer Geld kostet, haben sie gesagt, wir fangen jetzt an und entwickeln etwas. Giso Grimm ist dort der Entwickler, der das alles auf die Beine gestellt hat. Er arbeitet an der Universität Oldenburg und ist dort in der Hörgerätetechnik und in der akustischen Forschung. In diesem Rahmen hat er dieses Rendering entwickelt, das 3D Audio kann und das im Prinzip diese Audioübertragung im Client übernimmt. Und der OV Client ist dann entsprechend eine Lösung, an der wir uns beteiligen und die wir gemeinsam weiterentwickeln.

FBS: Dann gibt es, sozusagen als höchste Ausbaustufe, aktuell eine eigene Hardware, die ich mir anschaffen kann.

AS: Ja, das ist ein kleiner Raspberry Pi in einem Aluminiumgehäuse mit einem USB-Anschluss, einem Audio Jack und einem Internet-Anschluss. Den würde man einfach anschließen. Die Box braucht nur Strom, wird eingeschaltet und dann kann man dadrüber musizieren. Zusätzlich braucht man natürlich noch ein Interface und ein Mikrofon, mit dem man dann musizieren kann. Das Ganze zusammen sorgt dafür, dass man auch über den Webclient alles steuern kann.

FBS: So eine Box braucht dann jede Musikerin und jeder Musiker, der sich online mit anderen vernetzt?

AS: Der zumindestens die gleiche Technologie nutzen will. Wenn man zum Beispiel die Webanwendung nutzt, dann kann man zwar die anderen hören, allerdings nicht in der gleichen Qualität und mit der gleichen Latenz. In der letzten Ausbaustufe werden die alle miteinander kommunizieren können, aber nur der OV Client, also die Desktop Anwendung und die Box werden den Bonus haben, das sie eine geringere Latenz haben als die Web-Version. Ausserdem das 3D Audio Rendering.

FBS: Gibt es schon Vorstellungen, was das kostet? Fangen wir mal bei der Einstiegslösungen an. Ist die dann tatsächlich kostenlos?

AS: Kostenlos für die Organisation, ja. Wobei wir sie dann hoffentlich als Sponsor oder als Mitglied in unserer Stiftung bzw. später in unserer gGmbH gewinnen können. Wir sind noch ein bisschen in der Findungsphase und da wäre natürlich eine Beteiligung nicht schlecht. Denn von irgendwas müssen wir ja auch unsere Server bezahlen. In einer zweiten Ausbaustufe werden wir wahrscheinlich auch eine Community Variante anbieten, die wir dann für alle User freigeben. Die arbeiten dann auf dedizierten, also unabhängigen Servern und dort würde dann eventuell Werbung eingeblendet werden. Das ist momentan einfach noch nicht sicher, wie das später bezahlt wird. Aber erstmal soll alles gemeinnützig bleiben. Wir wollen praktisch kostendeckend arbeiten. Im Prinzip soll der Kunde sogar die ganze Hardware selbst entscheiden können. Ein Raspberry Pi, wie ich einen hier habe, kostet beim Versandhandel momentan ca. 110 Euro. Den kann sich jeder kaufen. Dann gibts eine SD Karte, die man bespielen muss und dann kann man loslegen. Also viel mehr ist es eigentlich nicht. Man muss den zusammenbauen, aber dann im Prinzip nur die Software aufspielen. Und das ist wirklich kein Hexenwerk.

KW: Ich würde gern noch eine Sache ergänzen, damit das ein bisschen deutlicher wird. Es sind letztendlich die Verbände, zum Beispiel die, die für die Bereiche, die wir abdecken wollen, zuständig sind. Oder Hochschulen, Musikschulen und vielfältige andere Partner, die man auch auf unserer Website finden kann. Die Idee ist, dass quasi alle unsere Partner und auch darüber hinaus, Mitglied unserer wie auch immer gearteten Entität werden können. Und das quasi alle Mitglieder dieser Organisationen dann die Anwendung kostenlos nutzen können.

FBS: Was die nähere Zukunft anbelangt, wie ist euer Zeitplan? Wann kann die Anwendung genutzt werden, wann gibt es die Hardware, wo kann man sich bewerben?

AS: Es gibt eine Hardwareliste. Damit kann man im Prinzip schon loslegen und testen. Es ist alles momentan noch in einem Test Modus. Wer mitmachen möchte, kann sich bei uns über contact@digital-stage.org melden und sich an unserem Test beteiligen. Eigentlich wollten wir mit der Entwicklung schon viel weiter sein. Wir sind aber nur nebenberuflich, wenige Entwickler, die da tatsächlich dran arbeiten können. Unser Fahrplan ist auf jeden Fall, bis Ende des Jahres eine Lösung zu haben, die wir zur Verfügung stellen können, so das jede Sängerin und jeder Sänger irgendwie die Möglichkeit hat, damit zu musizieren. Das wird die Web-Version sein, möglicherweise sogar schon die Box und der Client. Wie schon gesagt, momentan kann man da drüber schon musizieren. Geht dann allerdings über die Server von ORLANDOviols und noch nicht über die von Digital Stage. Wir sind mit denen aber auch im nahen Austausch. Also wenn jemand testen möchte, egal welche Version, kann sich gerne bei uns melden. Wir geben das auf jeden Fall weiter.

Über Digital Stage

Die Digitale Bühne digital-stage.org ist eine gemeinnützige Initiative und entwickelt einen Online-Konferenzdienst, der es Kunst-, Musik- und Theaterensembles erlaubt, sich verteilt von verschiedenen Orten aus im Internet zusammen zu schalten, gemeinsam zu proben und live aufzutreten. Die Lösung ist für künstlerische Anwendungen optimiert, minimiert die Übertragungsverzögerungen bei Bild und Ton und schafft für künstlerische Ensembles neue Räume im Internet, um dort trotz der Einschränkungen durch CoViD-19 Proben, Unterricht oder bezahlte Aufführungen ansetzen zu können. Auch neue, digitale oder hybride Konzert- und Theaterformate können entwickelt werden. digtal-stage.orgist ein Projekt von !KF – Institut für künstlerische Forschung Berlin und des Deutschen Zentrums des Internationalen Theaterinstituts ITI, das im Rahmen des #WirVsVirus-Hackathons der Bundesregierung Ende März 2020 initiiert wurde.

Kerstin Wiehe

ist Teil des PR-Teams von digital-stage.org und seit dem Hackathon Teil der Community. Kerstin Wiehe ist als Publizistin und Kulturmanagerin sind ihre Arbeitsschwerpunkte kulturelle und auf Bildung bezogene Projekte, die schnittstellen-, genre- und grenzüberschreitend ausgerichtet sind. Sie gründete und leitet k&k kultkom und initiierte den Kulturkontakte e.V. und Querklang.

André Siebelist

ist Mitglied im Entwickler-Team von digital-stage.org und verantwortlich für die Abstimmung aller wichtigen Entwicklungsvorhaben im Projekt. André Siebelist ist Softwareentwickler beim digital-stage.org-Partner 5Minds und verfügt über Detailkenntnisse zu den technischen Grundlagen von digital-stage.org.

Schreibe einen Kommentar