Kategorie

02-2012

Informare! Der Weg zum Wissen. Digital.

Vom 8.-10. Mai 2012 in Berlin Die Informare! ist ein neuer Treffpunkt für Information Professionals. Sie richtet sich an Fachleute, die beruflich in der Wissenschaft, in der Wirtschaft, in der Öffentlichkeit, in öffentlichen Einrichtungen und in der Politik mit Information und Wissen zu tun haben und an Studierende, die jetzt und in Zukunft an diesen Themen arbeiten. An drei Tagen und zwei Abenden hören wir auf Expertinnen und Experten, diskutieren mit Kolleginnen und Kollegen. Freuen Sie sich...

mehr lesen

Kataloganreicherung und Zeitschriftenerschließung

Fachveranstaltung am 19. April 2012 in Göttingen Im Rahmen des DFG-Sondersammelgebietsprogramms (SSG) erschließen verschiedene Bibliotheken innerhalb und außerhalb des GBV über 4.000 Zeitschriftentitel und gewinnen so durch halbautomatische Verfahren oder durch Autopsie Aufsatztiteldaten zur Einspielung in die Online Contents Datenbank (OLC) des GBV. Um das Verfahren bei der laufenden und/oder retrospektiven Erschließung von Aufsatztiteldaten aus Zeitschriften und fortlaufenden Sammelwerken...

mehr lesen

Frühjahrstagung des vfm

Der Verein für Medieninformation und Mediendokumentation (vfm) veranstaltet vom 16. bis 18. April 2012 in München seine jährliche stattfindende Frühjahrstagung. Die Tagung richtet sich in erster Linie an Mediendokumentare und Medienarchive, ist aber mit dem diesjährigen Programm sicher auch für Informationsspezialisten aus anderen Branchen von Interesse. Die Veranstaltung steht unter dem Motto „Zukunft in der Content Cloud. Medienarchive machen mobil“. Neben Fachvorträgen werden auch diverse...

mehr lesen

Bielefeld Konferenz 2012

Vom 24. bis 26. April findet die 10.nternationale Bielefeld Konferenz 2012 in der Stadthalle Bielefeld statt. Das diesjährige Veranstaltungsmotto lautet „Shaping Future INFO-Structures: Feeding Data, Designing Information Services and ­Constructing ICT-Infrastructure for a Digital Natives’ World”. Mit diesem Konferenzprogramm will der Veranstalter, die Universitätsbibliothek Bielefeld, neue Entwicklungen in den Fokus stellen, die die Bibliotheks- und Informationsbranche in den nächsten Jahren...

mehr lesen

Studie zum Social Web in Deutschland

Das Beratungs- und Wirtschaftsprüfungsunternehmen PriceWaterHouseCoopers (PwC) will in einer Studie herausgefunden haben, dass Facebook inzwischen für mehr Traffic auf Drittwebsites verantwortlich ist als die Suchmaschine Google. Insgesamt befragte PWC für diese Untersuchung 1.000 User von sozialen Netzwerken und Medienplattformen. Weiterhin wurde auch festgestellt, dass die Nutzer in Deutschland sich immer mehr auf wenige soziale Netzwerke beschränken. Klarer allgemeiner Marktführer bei den...

mehr lesen

Suchmaschinen sind immer noch relevanter als soziale Medien

Zwei aktuelle Studien - vom deutschen Hightech-Branchenverband BITKOM sowie von der US-amerikanischen Internetforschungsorganisation PewInternet - relativieren etwas das Bild vom unaufhörlichen Erfolg von sozialen Medien wie Facebook. In der alltäglichen Internetnutzung sind Suchmaschinen, und im Besonderen Google, immer noch die wichtigsten Anlaufstellen, wenn es um die Informationssuche geht. Sogar die Qualität der Suchergebnisse ist von den Nutzern noch nie so hoch eingestuft worden wie...

mehr lesen

Wahr oder Nichtwahr, das ist hier die Frage

Das politische Klima in den USA zwischen den zwei großen Parteiblöcken, den Demokraten und den Republikanern, hat sich in den letzten Jahren erheblich verschärft. Absichtliche Fehlinformationen und Verleumdungen gehören, wenn man den aktuellen republikanischen Präsidentschaftswahlkampf beobachtet, sogar in den eigenen Reihen eher zur Regel als zur Ausnahme. Aber nicht nur in den Vereinigten Staaten hat die Politik in den letzten Jahren viel Ansehen in der Bevölkerung durch die teilweise...

mehr lesen

Soziale Medien als Informationsquellen

ebrary, einer der führenden Anbieter von E-Books, hat Ergebnisse aus der globalen E-Book Umfrage 2011 unter Studenten veröffentlicht. In einem Anhang zu dieser Studie wurde auch untersucht, ob soziale Medien für Studenten ein geeignetes Recherchewerkzeug sind. Insgesamt haben weltweit mehr als 6.300 Studenten an dieser Befragung teilgenommen. Eine ähnliche Studie wurde von ebrary bereits 2008 durchgeführt, allerdings ohne den sozialen Medien-Abschnitt. Durch den Vergleich der Befragungen von...

mehr lesen

Alles automatisch, oder was?

In der letzten Ausgabe dieses Newsletters wurde berichtet, wie automatische Programme, sogenannte Bots, sich in Twitter unerkannt an der menschlichen Kommunikation beteiligt und sogar selbst Follower produziert haben. In einem aktuellen Beitrag der bekannten US-amerikanischen Medienwebsite Mediabistro.com wurde passend dazu vermeldet, dass einige Wirtschaftsjournalisten inzwischen durch schreibende Roboter ersetzt werden. Laut Mediabistro nutzen bereits 30 Unternehmen eine von dem Start-up Narrative Science (http://www.narrativescience.com/) entwickelte Software, um etwa Artikel in Zeitschriften vollautomatisch ohne menschliches Zutun schreiben zu lassen.

Zu diesen Kunden von Narrative Science zählt auch das Wirtschaftsmagazin Forbes. Dieses setzt die Schreibprogramme ein, um automatisierte Börsenberichte zu erstellen. Die automatisch verfassten Berichte können, laut Narrative Science, auf den jeweiligen Verfasser sowie dessen Stil und Ton angepasst werden. Wer sich von der Qualität dieser Artikel selbst überzeugen will, findet unter http://blogs.forbes.com/narrativescience/ ein entsprechendes Anschauungsbeispiel. Diese maschinell erstellten Beiträge haben aber noch einen weiteren Vorteil für potenzielle „Leser“. Sie können, Dank der Anbindung an bestimmte Datenbanken, sehr schnell publiziert werden. Automatische Handelsprogramme, etwa von Banken, können diese Beiträge dann wiederum nutzen, um sehr schnell auf gewisse Ereignisse oder Daten reagieren zu können, um damit schlussendlich einen Handelsgewinn einzufahren. Es spielt übrigens auch keine Rolle, ob die Daten richtig, oder etwa durch einen Übermittlungsfehler des Datenbankproduzenten, falsch sind. Es geht nur darum, wer als erstes auf diese Vorfälle reagieren kann, um dem Trend ein paar Sekunden oder Millisekunden voraus zu sein. Der vollautomatische Highfrequenz-Börsenhandel ist keine reine Fiktion mehr, sondern teilweise schon Realität. Und für Information Professionals vielleicht besonders deprimierend ist die Tatsache, dass es eigentlich egal ist, ob man qualitativ-hochwertige und zuverlässige Informationen dabei einsetzt oder nicht, zumindest so lange alle auf die gleichen Informationen zugreifen.

Die Anwendungsbereiche dieser automatischen Programme sind aber praktisch unendlich. So haben an der von Narrative Science entwickelten Software auch Sportjournalisten mitgewirkt, um aktuelle Sportergebnisse und -statistiken auszuwerten. Damit werden wiederum Artikel mit automatischer Bewertung der einzelnen Spieler erstellt. Weitere Unternehmen, die dieses Werkzeug bereits verwenden, sind der Finanzinformationsdienst/Verlag Hanley Wood (http://hanleywood.com/) und die Journalisten-Plattform „The Big Ten Network“ (http://btn.com/).

Die Ergebnisse dieser von Robotern geschriebenen Texte haben natürlich (noch) nicht „Bestseller-Qualitäten“, aber sie sind verständlich und erfüllen damit ihren Zweck. Muss man in Deutschland auch in Kürze mit solchen automatisch verfassten Beiträgen in Zeitungen rechnen? Wahrscheinlich noch nicht unmittelbar, da die deutsche Sprache allein durch die vielen Konjugationsformen schon wesentlich schwieriger im Satzaufbau ist als…

mehr lesen

Fragwürdige Verschärfung des deutschen ­Leistungsschutzrechts geplant

Und wieder einmal gibt es ein zweifelhaftes, wenn nicht sogar als gefährlich zu bezeichnendes, Gesetzesvorhaben in Deutschland, um das Leistungsschutzrecht/Urheberrecht weiter zu „verschlimmbessern“. Dass Deutschland im Ausland den Ruf eines überregulierten Landes hat, beruht leider nicht immer nur auf einen Vorurteil. Wenn man sich nämlich die neuesten Überlegungen der Bundesregierung zur Abgeltung von urheberrechtlichen geschützten Artikeln aus Presseprodukten wie Zeitungen oder Zeitschriften ansieht, kann man als Konsument, Informationsanbieter, Internetuser oder einfacher Bürger dieses Landes eigentlich nur mehr den Kopf schütteln. Laut dieses Beschlusses sollen gewerbliche Nachrichten-Aggregatoren im Netz sowie auch Suchmaschinen künftig für die Verbreitung von Presseartikeln die Verlage entschädigen. Offensichtliches Ziel dieses Entwurfs ist der Internetriese Google. Google soll so einen „fairen“ Anteil – was immer das bedeutet – der über Google News generierten Werbeeinnahmen an die Verlage abtreten.

Entgeltpflichtig wären nach dieser Regelung bereits „kleine Teile“ eines veröffentlichten Textes. Was heißt übrigens kleine Teile? Die Überschrift, ein zitierter Satz, Schlagworte aus diesem Beitrag? Das bloße Verlinken auf einen Artikel soll (noch) weiterhin kostenlos bleiben. Das „noch“ lässt sich aus Aussagen von Verlagsrepräsentanten ablesen, die sich laut Zitat „Wir hätten uns mehr gewünscht“ äußerten. Und wie könnte es anders sein, soll eine weitere neue „Behörde“ à la GEMA, VG Wort und GEZ zur Überwachung und Eintreibung dieses Leistungsschutzrechts gegründet werden. Man kann sich des Eindrucks nicht ganz erwehren, dass die Politik mit dem Internet ein neues Steckenpferd für ihre Gesetzesproduktion gefunden hat. Man denke in diesem Zusammenhang auch an das vor kurzem noch in den Schlagzeilen herum spukende ACTA-Abkommen, dass ebenfalls sehr schwammig formuliert ist, und je nach Interpretation sogar die allgemeine Informationsfreiheit im Netz bedroht.

Es mag vielleicht irgendwo nachvollziehbar sein, sich an Googles Milliarden-Gewinnen beteiligen zu wollen, aber grundsätzlich werden mit solchen Gesetzen in erster Linie nur Blogger und andere „kleine“ Nachrichtenverbreiter bestraft werden. Eine neue Abmahnwelle dürfte über das Land ziehen. Okay, man kann in diesem Fall etwas zynisch argumentieren …

mehr lesen