Datenmissbrauchsgefahr. Das Wort werde ich nie vergessen. Es verwendete einmal ein Mitarbeiter einer Behörde mir gegenüber am Telefon. Als ich ihn fragte, was denn gegen Open Data bei den Bundeshaushalten sprechen würde. Dieses Wortungetüm brachte auf den Punkt, was wohl in vielen Köpfen in den Verwaltungen vorging – angesichts des Ansinnens, „ihre“ Daten einfach dem Souverän, pardon, dem Untertan zu übergeben.
15 Jahre und eine Piratenpartei später hat sich einiges verändert. So gibt es nun Fahrpläne der ÖPNV-Unternehmen als OpenData, div. Portale halten vor allem Schnarchdaten bereit, das Unternehmensregister ist teilweise kostenfrei zugänglich – aber nicht wirklich offen. So hat sich eben vieles auch nicht geändert – fast alle kostbaren Daten der öffentlichen Hand sind weiterhin unter Verschluss. Gemeint sind die, die in ihrem Auftrag oder von ihr vermessen wird. Etwa, was die Nutzung von öffentlich finanzierter Infrastruktur und Diensten angeht. Daten darüber sollten in Echtzeit kostenfreie zur Verfügung stehen.
Ich halte es weiterhin für schädlich, dass private Firmen viel über uns sammeln und auswerten und verkaufen dürfen (Konsum, Mobilität, Kommunikation, Finanzgebaren). Während die Gesellschaft und Menschen, die „Crowd“, die diese Sammlung erst möglich macht, an den Daten nicht teilhaben kann. Es ist und bleibt ein Konstruktionsfehler einer im Digitalen immer noch weitgehend unbeleckten Legislative und Exekutive, diese Daten nicht für das Gemeinwohl zu vergesellschaften.
Von wegen Zenit
Jedenfalls: Anlässlich des unlängst erschienenen „Handbuch Daten und KI im Journalismus“, das Christina Elmer und ich herausgeben, habe ich daran zurückgedacht, wie das damals war, als es losging mit OpenData & Co. Zum Buch kann ich nur sagen: Der Verlag fragte mich, ob ich eine Neuauflage meines Büchleins von 2016 schreiben wollen würde. Wollte ich nicht. Aber ein Sammelband wäre doch was, schlug ich vor. Christina war zum Glück bereit, mitzumachen. Zwei Dutzend fähiger Kolleg:innen erklärten sich bereit. Texte beizusteuern. Vielen Dank an alle! Ob uns gelungen ist, die Themenfelder in dem knapp 400 Seiten-Buch gut abzudecken, müssen andere beurteilen.
Lustigerweise hatte ich zum zehnjährigen Jubiläum von Datenjournalismus noch rumgemosert, das Genre habe wohl seinen Zenit überschritten. Ein Jahr später schlug Corona ein und wie gut war es, dass es zahlreiche Journalist:innen gab, die sich der meist kläglichen Datenlage stellten und so gut es ging, ausdauernd über die Lage der Pandemie berichteten.
Das Thema „Künstliche Intelligenz“ war 2009 nicht akut. Doch mit den der OpenGovernment-Initiative der neuen Obama-Regierung in den USA schwappte die Idee von OpenData, nicht zuletzt auch aus UK, nach Deutschland. Mit dem Guardian Data Blog etwa und ein Jahr später den „Afghanistan War Logs“ von Wikileaks, begann sich das Bild von data-driven-journalism zu formen. Zu der Zeit war das Internet noch nicht wirklich mobil – der Siegeszug der Smartphones begann erst einige Zeit später. Alles war langsamer, Social Media bestand vor allem noch aus Text und Links auf längere Texte in Blogs. Newsletter galten als altertümlich. Die erste richtige Datenjournalismusanwendung, an der ich mitwirkte, lief noch mit Flash.
Professionalisierung
Es waren einige spannende Jahre. Die Hochzeiten von #ddj und OpenGov fielen zumindest in Deutschland mit dem Aufstieg der Piratenpartei zusammen. Die stand im Mai 2012 bei bis zu 13 % in Wahlumfragen im Bund – um sich dann innerhalb weniger Monat beeindruckend konsequent selbst zu zerlegen. So krähte dieses Frühjahr kein Hahn mehr danach, als ein bekannter Ex-Politiker der Piraten bei Github, einem Subunternehmen von Microsoft-, anheuerte.
Auch Ausdruck davon, dass die digitalpolitische Szene in Deutschland ihre Hochzeiten hinter sich hat. Das hat zum einen mit dem katastrophalen Scheitern der Piraten zu tun, die damit div. progressive Konzepte im Digitalen diskreditierten. Zum anderen haben sich viele der Aktivist:innen von einst professionalisiert: Open Knowledge Foundation Dtl., FragDenStaat, Jugend hackt, Temporärhaus (Ex-Verschwörhaus), AlgorithmWatch, Superrr Lab, Protoyp- und Sovereign Tech Fund – alles Organisationen, die ihre Anfänge zu Beginn der 10er Jahre nahmen.
Ein im gewissen Grad politisch aktiven Nachwuchs gibt es in Feld von CivicTech kaum. Von einer Bewegung kann keine Rede mehr sein. Die fehlt als Teil einer gesellschaftlichen Auseinandersetzung mit Generative AI derzeit. Die ist im deutschsprachigen Raum im wesentlich von Diskursbeiträgen geprägt, die das Thema hypen (positiv oder negativ) oder unter dem Strich als Bedrohung betrachten.
Public AI
Inwiefern sich die Generative AI emanzipatorisch und demokratisch nutzen ließe, wird von der hiesigen Zivilgesellschaft wenig diskutiert. In den USA und UK wird derweil über „Public AI“ nachgedacht, u.a. durch die Mozilla Stiftung; es geht darum, quasi staatliche oder öffentlich-rechtliche „AI-Modelle“ als Infrastruktur zu etablieren. Eine abstrakte, offensichtlich recht akademisch geprägte Herangehensweise. Und angesichts der enormen Kosten (Rechenzentren, Energie), konkurrenzfähige Sprachmodelle (LLM) zu produzieren, ein absehbar wohl kaum zu realisierbarer Ansatz. Was die EU und Regierungen nicht daran hindert wird, Milliarden an Steuergeldern in Hirngespinste von „Souveräner KI“ o.ä. zu versenken, an der sich die üblichen Beraterfirmen und zahlreiche Forschungsstätten gütlich laben werden.
Woran es meiner Meinung nach eher mangelt, sind alltagsbezogene Praxisbeispiele, wie Generative AI gemeinnützig eingesetzt werden könnte. Und es mangelt an Orten und non-profit Institutionen, die kritisch, aber auch optimistisch an AI herangehen. Die Technologie ist sicher nicht die Lösung aller Probleme, wird nicht den Klimakollaps stoppen. Doch im Bildungs- und Gesundheitsbereich etwa oder für OpenGov könnte die Zivilgesellschaft sie sinnvoll nutzen. Es fehlen eben nur die entsprechenden Akteure. Bleibt zu hoffen, dass auf den Ruinen der Klimabewegung usw. eine neue soziale Bewegung entsteht, die CivicTech als Teil ihres Werkzeugskastens versteht.