Proseminar Online Journalismus
Fachbereich Kommunikationswissenschaft, Abteilung Journalistik
Uni Salzburg, Wintersemester 2006/07 | Lektor Helmut Spudich

[Programm]

[Teilnehmer]

[Materialien]

[Proseminar-Arbeiten]

[o:jour blog]

[Links Online Journalismus]

[derStandard.at/Salzburg]

[Der Salzburger]

ONLINE JOURNALISMUS 2.0 | Helmut Spudich

Medien und Journalisten haben sehr bald die Möglichkeiten des Web genutzt; mit der Popularisierung des 3W (World Wide Web) in der ersten Hälfte der 90er Jahre haben Zeitungen begonnen, ihre Inhalte online anzubieten. In den USA gehörte die San Jose Mercury News – quasi die Lokalzeitung des Silicon Valley und damit im Herzen der Internet-Entwicklung – zu den Pionieren, die in der ersten Hälfte der 90er Jahre online gingen. Im deutschen Sprachraum waren Spiegel Online (1994) und derStandard.at (1995) die ersten Medien mit Online-Ausgaben.

Vor allem für Zeitungen schien die Onlinepräsenz eine logische Fortsetzung ihres Medienmodells: Das Web war stark textorientiert, da sowohl auf der Anbieter- als auch der Leserseite zu dieser Zeit (Mitte 90 bis ca. 2000) die mit Text verbundenen geringen Datenmengen den damaligen technischen Möglichkeiten stark entgegenkam: Die meisten User, und nicht wenige Anbieter, verwendeten Telefonleitungen, Breitbandverbindungen waren die Ausnahme oder bestanden vor allem auf Anbieterseite. Auch die Rechenleistung von Servern (bei Anbietern) und PCs (bei Produzenten und Usern) waren nur selten zur Erstellung und Verbreitung von „Rich Media Content“ (Bilder, Audio, Video) wirklich geeignet.

Das Web war zwar von Anfang an multimediatauglich, aber mehr in der Theorie als in der Praxis. „Online Journalismus 1.0“ – also die bis heute reichende erste Phase der Adaption des Web durch und für Journalimus – war im wesentlichen eine beschleunigte Zeitung: Die meisten Onlinemedien agierten wie gedopte Printprodukte – ihrer Form nach Zeitungen, dem Tempo nach elektronisches Medium. „Gedruckte“ Nachrichten mussten nicht mehr auf Andruckzeiten und Vertrieb warten, sondern konnten wie Radio oder TV „near live“ produziert werden.

In den 90er Jahren (und heute noch) konzentrierte sich die Diskussion in vielen Medien weniger darauf, welche Gestalt Online Journalismus annimmt und welche journalistischen Möglichkeiten das Web eröffnete, sondern um Fragen wie: sollen alle Inhalte oder nur ein Teil zur Verfügung gestellt werden, „kannibalisiert“ eine Online-Gratisversion die gewinnbringenden Printausgaben, wie sieht das künftige Geschäftsmodell des Onlinebereichs aus.

Die (zu diesem Zeitpunkt nicht erfüllte) Finanzierungshoffnung dieser Phase war in erster Linie Onlinewerbung (und Startgelder durch Börsengänge der Onlineausgaben; so planten u.a. die New York Times in den USA und Der Standard in Österreich Börsengänge für ihre Onlineversionen). Versuche gebührenfinanzierter Onlinemedien schlugen meiste fehl, einzig das Wall Street Journal schaffte es von Anfang an ein Abonnentenmodell zu verankern. Reine Online-Neugründungen waren selten und noch seltener von Bestand, unter anderem Salon (www.salon.com) in San Francisco, und das mit Microsoft-Geld gegründete Slate (www.slate.com), heute im Besitz der Washington Post.

Ausgerechnet zu einem Zeitpunkt, als die Zahl der Internetnutzer stark stieg und viele neue technischen Möglichkeiten entwickelt wurden, brachte zuerst das Ende des Dotcom-Booms im Jahr 2000 und dann die nach den 9/11-Terroranschlägen einsetzende Rezession große Einschränkungen bei der finanziellen und damit personellen Ausstattung der Onlineversionen.

Zwar war die Diskussion um die Notwendigkeit von Onlineausgaben jetzt zugunsten von Online entschieden und so gut wie alle Medien boten ihren Lesern, Zuhörern und Zusehern unterschiedlich engagiert gemachte Onlineversionen ihrer Produkte. Aber deren Entwicklung und Eigenständigkeit war aufgrund der Defizite, die alle Onlinemedien schrieben, stark begrenzt. In erster Linie ging es den meisten darum, dass ihre Leserschaft auch Online von ihrer Marke bedient wurde, nur wenige sahen im Onlinebereich die Chance Reichweite und Markenstärke auszubauen, da dies mangels ausreichender eigener Einkommen mit Investitionen der „Muttermedien“ verbunden war, die in den Rezessionsjahren nach 2001 nur wenige Medien bereit waren zu tätigen.

Aber ab ca. 2004 begann sich die ursprüngliche Finanzierungshoffnung – Ertrag durch Werbung – zu erfüllen. Denn der Zustrom der User hielt in den wirtschaftlich schwierigen Jahren an, Online gewann starke Anteile am „Eye Share“ (und, vor allem in den USA, durch die Blogging-Revolution auch an „Mind Share“). Die Anzeigenwirtschaft erholte sich generell, und da die Ausgangsbasis für Onlinewerbung gering war, waren die Zuwächse umso beachtlicher: Auftraggeber und Werbewirtschaft wurde experimentierfreudiger, dazu kamen, vor allem mit der Internetsuchmaschine Google, auch „Anzeigenaggregatoren“ auf den Markt, ein Modell mit durchschlagendem wirtschaftlichen Erfolg. Die Kontextplatzierung von Textwerbung ermöglicht es, mit der fragmentierten Leserschaft von Webseiten besser zurecht zu kommen; und das derzeit auf dem Prüfstand stehende „Klick-Modell“ (bezahlt wird nur, wenn eine Werbung angeklickt wird) machte für Werbende den Einstieg in Onlinewerbung billig.

Redaktionell änderte sich jedoch in diesen jüngsten Jahren der Entwicklung noch relativ wenig, bzw. nur in Ansätzen. Noch immer waren und sind die meisten Onlinemedien textorientiert. Gerade in diesem Bereich sieht Mark Thompson, der Generaldirektor der BBC, die zweite Phase von Onlinemedien: Das Web wird sich von seiner bisherigen Textorientierung zu „Rich Media Content“ entwickeln, da die Technik auf beiden Enden der Leitung (bei Produzent wie Konsument) dies zunehmend erlauben. Die Bausteine dieser Entwicklung zu Multimedia sind: Die durchgängig digitale Produktion aller Medienbereiche (Text, Bild, Ton, Video), die relativ geringen Kosten für leistungsfähige Produktionssysteme, leistungsfähige Serversysteme zur Distribution, leistungsfähige Breitbandanbindung und Endgeräte der User – die wiederum ihrerseits leicht zu Produktionsmittel werden können und damit den User immer stärker selbst zum Produzenten von Content machen.

Diese Entwicklungen sind bei Onlinemedien zunehmend zu sehen, wenn auch erst ansatz- und versuchsweise realisiert. Radio und TV-Stationen bieten ihre Programm „streaming“ (also live über Internet) oder „on demand“ an, wie z.B. Ö1 (http://oe1.orf.at), die ZiB2 des ORF (http://tv.orf.at/ zib2) oder CNN (www.cnn.com), teilweise gegen Bezahlung.

Multimediabeiträge beginnen bei Printmedien geschrieben Geschichten zu ergänzen, in Form von Slideshows und Videobeiträgen; vor allem die New York Times entwickelt diese Formen kontinuierlich und beschäftigt dazu bereits eigene Multimedia-Reporter (http://www.nytimes.com/pages/multimedia).

Zumindest ein paar Blogs müssen heute Bestandteil etablierter Onlinemedien sein – sowohl von den eigenen Redakteuren als auch eingeladenen externen Bloggern (nicht selten Promis), wie zum Beispiel bei der Zeit (http://www.zeit.de/blogs/index). Die französische Radiostation Skyrock (www.skyrock.com) zählt inzwischen nach eigenen Angaben hunderttausende „Skyblogs“ seiner Zuhörer auf ihrer Website und bestreitet aus einer Auswahl der Einträge wesentliche Programmteile.

Die jüngsten Wahlen in Österreich (1. Oktober 2006) und den USA (November 2006) zeigten beispielhaft, wie sehr es in der bisher relativ fest gefügte Medienlandschaft zu Verschiebungen kommt: Jenseits der Unmengen an „eigener“ Information, die TV-Sender und Zeitungen auf ihren Websites selbst anbieten, versuchen sie zunehmend die freie Szene an Webmedien einzubinden, um ihre Zuschauer und Leser nicht zu verlieren. So brachte derStandard.at Live-Kommentierungen der Wahldebatten im TV, die wiederum ihrerseits einen Rekord an User-Postings hervorbrachten.

In den USA lud CNN 20 der meist gelesenen Blogger am Wahltag und in der Wahlnacht in das Internetcafe Tryst in Washington, wo sie unter einer Fülle von CNN-Bildschirmen sitzend ihre Kommentare zu den einlaufenden Ergebnissen und Stellungnahmen auf dem Website CNN.com abgaben (http://www.cnn.com/CNN/Programs/situation.room/blog/2006/11/thank-you-tryst.html).

Eines der Themen im Zuge des US-Wahlkampfts war die Frage nach Funktionstüchtigkeit (und möglicher Manipulierbarkeit) neuer elektronischer Wahlmaschinen, die nach dem Auszähldebakel der Bush-Gore-Präsidentschaftswahlen eingeführt wurden. Auf YouTube brachten Wähler Berichte und Videoclips von Wahllokalen, um mögliche Probleme zu dokumentieren (z.B. http://www.youtube.com/watch?v=SvAqrDhB9SI). Andere Medien wie die New York Times wiederum griffen diese Berichte auf, als Quellen für eigene Geschichten.

Web 2.0

Diese sich abzeichnende zweite Phase des Online Journalismus – Rich Media Content, starke Individualisierung und User Participation, ohne noch klar erkennen zu können, wohin die Reise geht – geht Hand in Hand mit „Web 2.0“, dem Schlagwort für eine Vielzahl technischer wie sozialer Änderungen in der Entwicklung des Web. Um die Auswirkungen auf Medien und Journalismus besser einschätzen zu können, ist ein genauerer Blick auf diese allgemeine Webentwicklung nötig.

Web 2.0 ist ein loser Begriff, der vom Verleger und „Internetguru“ Tim O’Reilly vor einigen Jahren zur Beschreibung einer Vielzahl von Internet-Entwicklungen geprägt wurde: in Anlehnung an die Versionsnummern bei Software quasi die zweite Version des World Wide Web (allerdings gibt es keine „zentrale“ Webentwicklung, so wie Software von einzelnen oder einem Team entwickelt wird). Unter diesem Stichwort werden heute eine ganze Fülle von sehr unterschiedlichen „Features“ zusammengefasst, u.a.:

Zusammenarbeit (Kollaboration) der User mit Hilfe entsprechender Software (Wikis) wie das Online-Lexikon Wikipedia

Soziale Netzwerke wie MySpace oder OpenBC, teilweise in Verbindung mit anderen neueren Entwicklungen wie Flickr, YouTube, die gleichfalls Community-Charakter haben.

„Mashups“, Webseiten deren Inhalt aus den Inhalten unterschiedlicher anderer Webseiten erstellt wird, etwa die Verbindung von Landkarten mit anderen Informationen, oder individuell erstellte Portale wie netvibes.com

Tagging: Online-Leser vegeben „Tags“ (Etiketten, Stichworte) um auf diese Weise für sie interessante Inhalte mit anderen Usern mit ähnlichen Interessen zu teilen, woraus Informationscluster verwandter Interessen entstehen. Durch „Tags“bekommt abstrakte Information (die von Maschinen nicht interpretiert werden kann) eine soziale Bedeutung, die dann von Maschinen wieder interpretiert werden kann („semantisches Web“). Das bekannteste Beispiel dafür ist Delicious.com

Sharing von News and Information: Möglichkeiten, Artikel auf Websites zu verschicken, unmittelbar zu bloggen, in persönlichen Archiven aufzuheben und anderen zugänglich zu machen. Oft sind es kommerzielle Websites, die hier vorangehen, wie Amazon: Mit der Möglichkeit Artikel zu empfehlen, Kommentare abzugeben, Rankings zu erstellen etc.

• Blogs, Podcasts, Videocasts: Redaktionssysteme, die die Veröffentlichungen im Internet aller Arten von Medien (Text, Fotos, Audio, Video) für Benutzer ohne besondere technischen Kenntnise einfach macht.

• Web-Applikationen, mit denen Software vom eigenen PC in das Netz wandert, wie z.B. diverse Textprogramme, Bildbearbeitung, Kalender, Notizbücher, Projektmanagement – dabei verändert sich die Nutzung, da sie diese Werkzeuge die Zusammenarbeit erleichtern und ermöglichen, was Software am PC nur bedingt erlaubt. Musterbeispiele dafür sind Kalender für Gruppen, Vereine, Schulen etc.; vor allem Google hat dies zu einem zentralen Baustein seiner Strategie gemacht (http://www.google.com/intl/en/options/),  andere folgen.

• Die Integration bisher separater Kommunikationswege wie z.B. Chat, Telefonie, Mail in Webseiten: Mailprogramme wie Gmail oder Mac-Mail erkennen, wenn Absender von Mail (oder Personen im Adressbuch) sind – und ermöglichen mir, einen direkten Kontakt herzustellen. Websites können mit Hilfe von VoIP (Voice over IP, Internet-Telefonie) ihren Benutzern einen integrierten Kontaktweg anbieten, der nicht auf E-Mail geschränkt ist.

RSS Feeds: RSS, „Really Simple Syndication“, ermöglicht es neu erscheinende Information auf Websites in Schlagzeilenform zu „abonnieren“; dadurch kann man sich ein individuelles Paket an Informationen zusammenstellen, die alle auf einen Blick zu sehen sind, statt viele verschiedene Websites nach neuen Informationen „abzugrasen“. RSS kann auch zum Abonnieren von Podcasts und Videopodcasts verwendet werden, was z.B. Apple iTunes ermöglicht.

Wie gesagt, viele Entwicklungen lassen sich unter „Web 2.0“ einbringen – die Unschärfe des Schlagworts ermöglicht uns, das große Bild besser zu sehen, als wenn man versuchen würde, hier mit einer genauen Definition zu arbeiten.  Polemisch könnte man sagen, dass Web 2.0 all die Versprechen erfüllen sollen, die Internet – genauer: Das World Wide Web – von Anfang an begleiteten, aber die erst mit der technischen Entwicklung der vergangenen Jahre (und der weiten Verbreitung dieser Technik im Alltag) praktikabel wurde. Manches ist eine Mischung aus technischer Möglichkeit und sozialer Adaption: Die Redaktionssysteme, die Blogs oder Wikipedia ermöglichen, sind eher durch die massenhaftige soziale Adaption in den vergangenen Jahren ein Web 2.0-Phänomen als wegen der Technik, auf der sie beruhen.

Für die Entwickler von Web 2.0 geht es um neue Technologien, die aus der früheren statischen Internet-Version mit Websites – eigentlich ein Konzept des One-to-Many-Broadcasting, das sich von traditionellen Offline-Medien im wesentlichen nur dadurch unterscheidet, dass potenziell jeder User auch seinen eigenen Website produzieren kann – eine dynamische Version machen, in der viele Benutzer einzelne Seiten bearbeiten können. Websites verhalten sich zunehmend wie Programme am Computer, können von ihren Benutzern selbst verändert und gestaltet werden, und ermöglichen vielen Benutzer als gleichzeitige Gestalter einer Website aufzutreten.

Aus journalistischer Sicht ist die damit einhergehende Phase der „sozialen Bemächtigung“ des Mediums durch seine Benutzer bemerkenswert. Das lange Zeit vor allem einer kleinen, technisch kundigen Elite vorbehaltene Web öffnet sich einer breiteren Öffentlichkeit: Musste man früher HTML-Seiten schreiben können (der Code von Webseiten) und zumindest Grundkenntnisse von Servertechnologien haben, um diese Seiten auch zu veröffentlichen, machen dies webbasierende Services heute so einfach wie eine Mail schreiben. Natürlich erfordern auch solche Dienste ein Wissen von ihrer Existenz, ihrer Funktion und ihrer Bedienung. Aber so wie Lesen und Schreiben zur Kulturtechnik des industriellen Zeitalters wurde, wird der Umgang mit Internetangeboten zur Kulturtechnik der Informationsgesellschaft. Und wie schon bei der PC-Revolution der Jahre davor, sorgt „Learning by Doing“ und „Peer Learning“ (also Lernen, indem man kundige Freunde oder Kollegen fragt wie’s geht) für eine Demokratisierung dieser Möglichkeiten.

Für die Medienkultur ist das „Lesen können“ (oder, wie im Fall von Radio, TV und Film: „Richtig“ zuhören und zuschauen können) einer breiten Schicht die wesentliche Voraussetzung, dass sie funktioniert – es genügt hingegen eine Handvoll Medienmacher zur Produktion der Angebote. Web 1.0 war zunächst eine elektronische Erweiterung dieser Medienkultur, und rund zwei Jahrzehnte lang waren die meisten Benutzer damit beschäftigt, ihre „Lesefertigkeiten“ für die neue Technologie zu adaptieren – wie geht man mit einem PC um, wie verbindet man ihn mit dem Internet, wie „liest“ man Websites etc.

Die Netzkultur des Web 2.0 erweitert das „Lesen können“ um das „Schreiben können“: Wie produziere ich selbst Inhalte im Internet, wie lerne ich, für wen ich diese Inhalte produziere, wie verbreite ich sie etc. Dabei ist natürlich die vorangegangene Erfahrung der Medienkultur ein wichtiger Lernschritt: Denn zugleich mit dem Lesen lernen wir auf einer Metaebene auch über die Strukturen des Lesens (Hörens, Schauens), also über die Konstruktion und Produktion von Texten oder Filmen und des Mediums als ganzes.

Dank entsprechender vereinfachter Technik (zusammen mit wachsender Kompetenz der Benutzer im Gebrauch dieser Techniken) und der sozialen Adaption der neuen Möglichkeiten werden aus „Lesern“ in großer Zahl auch „Schreibende“, die One-to-Many-Kommunikation verschiebt sich zugunsten einer Many-to-Many-Kommunikation.

Rückblickend könnte den so genannten „Zapruder-Film“ auf prototypische Art als den Beginn dieser Phase interpretieren: Abraham Zapruder, ein Amateur mit einer Acht-Millimeter-Filmkamera, wurde zufälliger Zeuge und Reporter der Ermoderung des US-Präsidenten John F. Kennedy (http://www.jfk.org/Research/Zapruder/Zapruder_Film.htm). Heute würde man den Zapruder-Film als „User Generated Content“ bezeichnen– allerdings hatte Zapruder keine eigenen Möglichkeiten der Distribution: Der Film wurde zunächst als Beweismaterial unter Verschluss, erst später über TV-Anstalten, und viele Jahre danach im Film „JFK“ von Oliver Stone einem breitem Publikum zugänglich gemacht.

User Generated Content

Heute findet sich eine Version des Zapruder-Films auch auf YouTube (http://www.youtube.com/watch?v=Vx7YEAdBWhQ).  Mit einiger Wahrscheinlichkeit würden wir solche Zufallsdokumente heute zuerst Online zu sehen bekommen, wie etwa bei der Tsunami-Katastrophe Ende 2004, oder den 7/7-Bombenattentaten in der Londoner U-Bahn, und erst in der Folgen in so genannten „Medien“ serviert bekommen.

Denn die Zapruders und ihre 8-mm-Kamera sind heute überall, und sie verstehen sich nicht nur als zufällige Zeugen, sondern als bewusste Medienproduzenten. Web 2.0 befähigt eine Medienkultur, deren Medien nicht mehr ausschließlich professionell und kommerziell gemacht sind, sondern „von jedermann für jedermann“. „User generated content“ ist das Schlagwort für diese Entwicklung, „Citizen journalism“ soweit es dabei um journalistische Intentionen geht.

Die von ihren Benutzern selbst produzierten Inhalte sind natürlich im überwiegenden Fall weniger als journalistische Produkte zu sehen denn als Weg des persönlichen Agierens des Individuums in der Netzkultur: Ich blogge, also bin ich. Viele Blogs, Bilder auf Flickr, Videos auf YouTube entspringe einem persönlichen wie sozialen Reflex: Meiner Bezugsgruppe – Freunde, Familie, Kollegen – zu zeigen und zu schreiben, was mich beschäftigt, aus Jux und Tollerei, oder aus ernsteren Anliegen. Erst was man auf das „Papier“ oder die „Leinwand“ des Internets zum Ausdruck bringt existiert, so wie „Wirklichkeit“ erst „wirklich“ wird, sobald sie in Medien berichtet wird, also quasi erzeugt wird.

Dabei passierte jedoch, aufgrund der technischen Natur des Webs, unvorgesehenes: Persönliche, oft private Inhalte, erreichen völlig unbekannte Leser, die ihrerseits darauf reagieren. So wie das Online-Auktionshaus eBay den Flohmarkt (und den Markt generell) durch seine Reichweite dramatisch ändert – ein Artikel erreicht potenziell jeden Interessenten, und nicht nur den im örtlichen Umfeld – wird der Flohmarkt menschlicher Interessen und Befindlichkeiten plötzlich einem potenziell globalen Publikum geöffnet. Der soziale Kontext für Mitteilungen konstituiert sich so nicht mehr im Rahmen eines begrenzten örtlichen und persönlichen bekannten Kontexts (Voraussetzung für personale Kommunikation), sondern in größeren, potenziell globalen Zusammenhängen; losgelöst von der physischen Welt entstehen Gruppen virtuell aufgrund „reiner“ Interessen und sind nicht mehr an die Notwendigkeit des unmittelbaren Kontakts gebunden. (Natürlich bleiben Grenzen, wie Sprache, die Einbindung in Traditionen etc.)

Das wiederum hat Rückwirkungen auf viele, die solchen Content produzieren: Sie reagieren aufgrund der Beteiligung und des Feedbacks zunehmend auf diese virtuelle Community, auch wenn sie (sich) vielleicht ursprünglich für eine andere Gruppe produzierten. Reality-TV war offenbar ein Vorläufer dieser Entwicklung, dem Schein nach „User generated content“ der angeblich einer nicht-medial produzierten Wirklichkeit entspringt. Viele Inhalte des Web 2.0 erscheinen wie eine Art riesige Reality-Show – wobei sie oft fiktive Realitäten darstellen. Ein Beispiel dafür ist „Little Loca“ auf YouTube, eine fiktive Latino-Frau in Los Angeles, die über ihre Alltagserlebnisse erzählt – erfunden wurde sie von Stevie Ryan, einer jungen (arbeitslosen) Schauspielerin (http://www.youtube.com/profile?user=littleloca).  (Um das paradoxe Verhältnis zwischen Fiktion und Realität noch eine Windung weiter zu drehen: Das Magazin New Yorker berichtete sehr ausführlich über die Entwicklung von YouTube und „Little Loca“, womit aus der Fiktion einmal mehr Realität wurde, http://www.newyorker.com/printables/fact/061016fa_fact).

Die größte Community dieser Art ist MySpace, ursprünglich von Leuten gegründet, die ihre selbst produzierte Musik promoten wollten. MySpace wurde inzwischen von News Inc. von Rupert Murdoch aufgekauft, der erst im Frühjahr diesen Jahres den US-Verlegern vorhielt, sie würden die Internet-Entwicklung völlig verschlafen – offenbar entsprang der Kauf den eigenen Versäumnissen Murdochs in diesem Bereich.

Auch Journalismus experimentiert zunehmend mit „user generated content“ in vielen Formen. Die zunächst direkteste Art ist, Journalismus mit Hilfe von Onlinemedien zu „demokratisieren“ und dem Quasi-Monopol traditioneller Medien selbst produzierten Content gegenüberzustellen („Leser machen Zeitung“ war auch eine kurzlebige Entwicklung aus dem ideologischen Anspruch der 68er Generation, die wahrscheinlich nicht zuletzt aus ökonomischen Gründen wenig Breitenwirkung hatte; Internet verändert diew ökonomische Gleichung, da die Kosten für Produktion und Distribution vernachlässigbar werden).

Dafür gibt es eine Reihe von Beispielen: Wikipedia diversifiziert in Wikinews (http://de.wikinews.org/); vor allem in den USA haben sich eine Reihe prominenter Blogger einen Fixplatz im medialen Zirkus erschrieben (z.B. http://www.huffingtonpost.com/  oder http://www.redstate.com). Professionelle Journalisten versuchen, mit Hilfe von wenig oder unbezahlten Contributors Onlinemedien zu produzieren, wie Ohmy-News in Süd-Korea (http://english.ohmynews.com/) oder Lokalmedien in den USA (http://www.northwestvoice.com/home/).

CurrentTV (http://www.currenttv.com/), ein Medienprojekt des vom früheren US-Vizepräsidenten  Al Gore, versucht eine Symbiose von TV und Internet ebenso wie professioneller Medienproduktion und „user generated content“. Das Programm, das zum Teil von Usern produziert wird, und die dazu auch von CurrentTV unterstützt werden (und über deren Programm-Auswahl die Zuseher per Internet-Voting mitentscheidunge können), wird über Kabel-TV verbreitet, unterhält aber auch einen Website.

Aber trotz der Blüte all dieser selbst erzeugten Inhalte sind professioneller Journalismus und kommerzielle Medien häufig Bezugspunkt von „user generated content“. Blogs und YouTube fungieren vielfach als soziale Verstärker medialer Inhalte: Sie werden aufgegriffen, verlinkt, kommentiert, als Newsclips zirkuliert, verfremdet, parodiert. Es ist, zumindest zum Teil, eine Art öffentlicher Verdauungsprozess journalistischer Kost: Je nach Interessen trennen User „gute“ von „schlechten“ Inhalten, empfehlen weiter was sie für gut befunden haben, kritisieren für schlecht befundenes, geben den eigenen Senf dazu – und Medien wiederum reagieren auf die Onlinewelt, berichten über sie und heben dadurch ihre Bedeutung, ein wechselseitiger Validierungsprozess in dem sich jeder Teil aus der Reaktion des anderen in seiner Existenz und Bedeutung bestärkt sieht.

Der weite Kontext von Online Journalismus

Viele der genannten Entwicklungen und Beispiele zählen nicht oder kaum zu Journalismus in dem von uns meist gebrauchtem professionellen Sinn. Aber diese technischen wie sozialen Entwicklungen sind der Kontext, in dem sich die derzeitige und künftige Entwicklung von Online Journalismus ereignet.

Erst die Beschäftigung mit diesem weiteren Kontext, mit dem, was User im Netz tun, wie sich ihre Lebens- und Medien-Gewohnheiten verändern, wie Strukturen neu entstehen, ermöglicht uns abzuschätzen, wie die journalistische Entwicklung weiter verlaufen kann.

Medien reagieren auf die Entwicklung in vielfacher Form und verändern sich dadurch. So wie Tageszeitungen verschiedene Strategien entwickelten, auf die TV-Konkurrenz durch Programmhinweise, TV-Rezensionen, Kooperation (Zeitungs- und Magazinsendungen im TV) zu reagieren, passiert dies jetzt in der Beziehung zwischen Zeitungen, Radio und TV zur Onlinewelt. In der ersten, eingangs beschriebenen Phase, versuchten sich die traditionellen Medien des Internets zu bemächtigen, was teilweise auch gelungen ist: Websites großer Medien gehören zu den meistbesuchten Websites im Internet (allerdings beginnen sie diese Anteile zugunsten der neuere Entwicklungen wie YouTube abzugeben; und wenn man nicht danach geht, welche Sites die Hitparaden-Listen anführen, sondern wofür Menschen ihre Zeit verwenden, dann sind traditionelle Medien eher auf der Verliererseite, was u.a. die kontinuierlichen Studien von Pew/Internet eindrucksvoll belegen, http://www.pewinternet.org/).

Die Einflüsse des Web auf Journalismus sind vielfältig, vom Schreibstil der sich beginnt der Websprache zu bedienen, bis zur Berichterstattung über Webentwicklungen und dem Aufgreifen von Trends (und Geschichten), die sich zuerst Online manifestieren. Vielfach verschränken Medien ihre Offline-Produkte mit Onlineangeboten, auf die sie hinweisen (und umgekehrt geben eine Reihe von Onlineversionen nur Hinweise, aber nicht Zugriff auf gedruckte Inhalte, oder räumen nur zahlenden Abonnenten den vollständigen Zugang ein, so wie es Online-Angebote gibt, die nicht im „Hauptmedium“ erscheinen).

TV-Sender entdecken zunehmend die Möglichkeit von „on demand“: Zeitgleich mit der Sendung, oder kurz danach, werden Inhalte online zugänglich gemacht und erreichen so Zuseher, die sie zum fixen Sendezeitpunkt nicht erreicht hätten. „On demand“ wird so zur künftigen Form des Videorekorders und erhöht die Reichweite von Medien.

Dabei spielt eine weitere Entwicklung eine wesentliche Rolle: Der Einfluss, den die Welt der Unterhaltung – Entertainment – seit langer Zeit (wenn nicht sogar von Anfang an) auf Medien und Journalismus ausüben. Entertainment ist zur Leitkultur der Informationsvermittlung geworden, was der meist abschätzig gebrauchte Begriff von „Infotainment“ spiegelt. Um im Kampf um Aufmerksamkeit, um Leser und Zuseher zu bestehen müssen sich Medien inszenieren (eine Form der Inszenierung kann auch die seriöse sein, so wie schwarz-weiß-Bilder in einer grell-bunten Welt „seriöse Nachrichten“ signalisieren können). Der Medienkritiker Neil Postman hat diesem Thema ein eigenes Buch gewidmet, „Wir amüsieren uns zu Tode“.

Räumliche, physische und zeitliche Strukturen von Medien haben bisher die Grenzen zwischen Unterhaltung und Information markiert, mit vielen weichen, oft schwer erkennbaren Übergängen. Wir ordnen z.B. einzelne Zeitungsbücher der „reinen Information“ oder der „Unterhaltung“ zu; bestimmte TV-Programmzeiten sind „Information“, andere „Unterhaltung“.

Die fließende Struktur des Web trägt jedoch weiter zur Auflösung dieser Grenzen bei, da alles nur einen Mausklick entfernt ist. Gleichzeitig sind Leser und Zuseher „sophisticated“ geworden und finden auch Gefallen an der Verschränkung der beiden Welten, die im Kopf dann wie ein Rätsel wieder aufgelöst werden müssen. Wie real ist die Fiktion von Filmen wie „Thirteen Days“ von Roger Donaldson (über die Kubakrise 1962), „JFK“ von Oliver Stone (über die Ermordung John F. Kennedys) oder „The Queen“ von Stephen Frears (über den Tod Dianas und der Reaktion von Queen und königlicher Familie sowie des frisch gewählten Tony Blair)? Wie fiktiv die Welt der Nachrichten oder Dokumentationen, mit ihrem gleitenden Übergang zu „Docudrama“?

Diese spannende Frage stellt sich auch bei einem Onlinespiel namens „Second Life“. Second Life ist ein riesiges Online-Rollenspiel, dessen User quasi ein zweites, virtuelles Leben in einer neuen Welt aufbauen; inzwischen gibt es über eine Million Teilnehmer, die hier in eine neue Rolle schlüpfen und online ausleben. In den vergangenen Monaten haben Unternehmen und Medien begonnen, hier ihre Präsenz aufzubauen; so gibt es eine (real noch nicht existierende) Hotelkette, die in Second Life ermöglicht eine neue Art von Hotel zu erleben, die derzeit im „wirklichen Leben“ aufgebaut wird. Der Nachrichtendienst Reuters hat inzwischen ein Medienbüro in Second Life errichtet (http://secondlife.reuters.com/), BBC und CNN senden dort ihre Newssendungen (http://www.cyberjournalist.net/news/003807.php) – es wird interessant zu sehen, wie sich dieses Experiment weiter entwickelt.