von Michael Mönnich und Regine Tobias
Bereits seit längerem bestimmen multimediale Inhalte die Webseiten im Internet. Vergrößerte Bandbreiten, die eine schnellere Übertragungszeit ermöglichen, haben auch kontinuierliche Medien wie Audio- und Videodateien ins Netz gebracht. Deren Angebot und Nutzung in Verbindung mit Internet-Technologien stellen einen der am stärksten expandierenden Bereiche der Informationsverarbeitung im Web dar.
Dieser Artikel setzt sich zum Ziel, einen
ersten Überblick über die im Web kursierenden Internet-Video-Formate zu
geben und einige grundlegende Techniken der Übertragung im Netz näher zu
beleuchten. Im Anschluss wird die Problematik der Erschließung von Multimediadateien im Internet dargestellt.
II: Video im Internet - Technische Grundlagen 1. Größe der Dateien
Wer digitale Videos erwähnt, spricht immer auch von großen Datenmengen. Bereits eine Sekunde unkomprimiertes Video in voller Fernsehauflösung benötigt mehr als 21 Megabyte an Plattenspeicher. Eine Stunde von diesem Video würde mehr als 75 Gigabyte Speicherkapazität verschlingen. Ein Benutzer, der mit seinem 28.8 Kilobit/s- Modem an das Internet angeschlossen ist und dieses Video betrachten möchte, verfügt über weniger als 1/6000 der Datenrate, die für das Abspielen benötigt werden würde. Beim Herunterladen müsste er für jede Sekunde Spieldauer annähernd zwei Stunden Wartezeit einrechnen.
Die Leitung zum Rechner, auf dem das
Video abgespielt werden soll, ist das Nadelöhr, durch das die Videodatei muss.
Es besteht ein großer Unterschied, ob
ein Video durch den engen Schlauch
eines Modems oder eines ISDN-Anschlusses empfangen, oder ob das angeforderte Video innerhalb eines Campusnetzes über eine schnelle Netzwerkverbindung übertragen wird.
2. Kompression
Die großen Videodateien müssen also verkleinert werden, um sie an die bestehenden Bandbreitenbeschränkungen im Internet anzupassen. Aber auch aus technischen Gründen ist diese Kompression der Videodateien unerläßlich. Derzeit eingesetzte CD-Rom-Laufwerke und Festplatten sind nicht in der Lage, unkomprimierte Videos mit ihren hohen Datenraten abzuspielen.
Der Kompressionsvorgang macht aus großen Dateien kleinere durch Weglassen von redundanten Informationen. Hier spricht man von verlustloser Kompression, da kein Qualitätsverlust auftritt. Ist eine stärkere Kompression beabsichtigt, wird von verlustbehafteter Kompression gesprochen. Hier werden als weniger wichtig erachtete Informationen unterschlagen, was unter Umständen zu einer erheblichen Verschlechterung der Bild- und Klangqualität führen kann.
Die digitale Videoproduktion ist auf die zuletzt genannte verlustbehaftete Kompression angewiesen und erreicht Kompressionsfaktoren von 1:100 und mehr. Die einzelnen Kompressionsverfahren arbeiten mit verschiedenen Techniken. Eine davon ist die Methode der "räumlichen" Kompression: Jedes Bild einer Bildsequenz wird auf redundante Daten innerhalb des einzelnen Bildes hin untersucht, die dann eliminiert werden. Dabei bedienen sich diese Verfahren einiger Tricks, um die Qualitätsverluste zu minimieren: Beispielsweise werden bei der Kompression die Eigenschaften menschlicher Sinnesorgane berücksichtigt und Informationen, die das menschliche Auge nicht mehr erkennen kann, einfach unterschlagen.
Eine andere Technik ist die "zeitliche" Kompression: Hier werden die aufeinander folgenden Bilder eines Videosignals auf Änderungen hin untersucht. Die Unterschiede zwischen den einzelnen Bildern werden ermittelt und auch nur diese abgespeichert. Als Referenzbild für die Änderungen dient ein "Keyframe", das die vollständige Bildinformation enthält. Die auf den Unterschieden zu den Keyframes basierenden "Deltaframes" benötigen deutlich weniger Speicherkapazität. Durch diese Methode kann eine erhebliche Reduzierung der Datenmenge erreicht werden.
Beispielsweise kann ein Video, in dem ein Nachrichtensprecher vor einem festen Hintergrund spricht, durch die hohe zeitliche Redundanz stärker komprimiert werden als ein Video mit vielen Szenenänderungen. Für rasche Wechsel müssten viele speicherintensivere Keyframes verwendet werden.
Wichtigstes Ziel der Videokompression
ist also die Reduzierung der Dateigröße,
wobei die Verluste der Bildqualität möglichst gering gehalten werden sollen.
Dabei muss immer ein Kompromiss zwischen Dateigröße und Bildqualität gefunden werden. Bei digitalen Videos
hängen die einzelnen Parameter Bildgröße, Datenrate, Häufigkeit der Keyframes und Anzahl des Bilder pro Sekunde
stark voneinander ab. Soll z.B. ein Film
mit der gleichen Qualität in höherer
Auflösung wiedergegeben werden, dann
ist auch mehr Datenrate dafür notwendig. Im Internet sieht man deshalb oft
nur kleine und kleinste Videos.
3. Codec
Für die Videodigitalisierung erfüllt den Vorgang der Kompression ein Codec. Der Begriff Codec ist ein Kunstwort und setzt sich aus den zwei Teilen des Kompressionsvorgangs EnCOden und DECoden zusammen. Dies erfolgt über einen Algorithmus, der jedes Bild in der Bilderabfolge analysiert und die Kompression berechnet. Beim Encoden wird die Ausgangsbildsequenz komprimiert und beim Abspielen durch den Decodierprozess wieder rekonstruiert.
Bei herkömmlichen Datenkompressionsverfahren, die verlustfrei arbeiten (Winzip, StuffIt) müssen die Dateien für die Benutzung wieder dekomprimiert und in die ursprüngliche Datei zurückverwandelt werden. Das Kompressionsformat ist lediglich ein intermediäres Format und dient ausschließlich der Verringerung der Datenmenge und/oder der Versendung der Datei.
Im Unterschied dazu sind bei digitalen Videos die durch Codecs mit hohen Verlusten komprimierten Dateien auch diejenigen, die letztendlich betrachtet werden. Die Dekompression erfolgt in Echtzeit durch den Codec auf dem Rechner des Betrachters.
Für die Kompression werden Codecs auf Hardware- und Softwarebasis eingesetzt, die sich in Bildqualität und in der Be rechnungszeit unterscheiden. In der Regel erfolgt die Echtzeit-Encodierung mit Hilfe von einem Hardware-Encoder, der über einen entsprechenden Chip verfügt. Software-Encoder sind bei der Analyse des Bildes langsamer, können dafür in vielen Fällen aber genauer arbeiten.
Im Bereich der Internet-Videos existieren verschiedene Codecs für unterschiedliche Verwendungsarten, die alle auf Softwarebasis arbeiten und durch ihre sehr hohen Kompressionsraten für die Distribution über Netzwerke geeignet sind. Allen gemeinsam ist die Eigen schaft des extrem asymmetrischen Encodierprozesses, d.h. das Encoden benötigt aufgrund des erhöhten Rechenaufwandes mehr Zeit als der Decodierprozess.
Symmetrische Codecs werden für Livebroadcast und Videotelekonferenzen
verwendet. Die Encodier- und Decodierprozesse benötigen jeweils den selben
Rechenaufwand, jedoch fehlt hier die
Zeit für die Optimierung der Bildanalyse.
4. Streaming
Die Übertragung von Daten im Internet geschieht herkömmlicherweise via Download auf den Rechner des Benutzers. Dieser Vorgang verursacht durch die Größe der Videodateien jedoch lange Verzögerungen und außerdem muss die Datei vollständig auf den Clientrechner gespeichert werden. Auch nach der Verwendung von Codecs zur Komprimierung der Videodatei ist v.a. für längere Clips das Herunterladen aufgrund der im Internet bestehenden Bandbreitenbeschränkungen immer noch eine Geduldsprobe. Abhilfe schafft eine Technologie, mit deren Hilfe die Daten kontinuierlich übers Netz "strömen": das Streaming. Der Trick dabei ist, dass Audio- und Videodateien wiedergegeben werden, sobald sie auf dem Client ankommen und noch bevor das Video vollständig heruntergeladen wurde. Während der Übertragung der Videodatei sieht der Betrachter nur das, was gerade gesendet und geladen wird.
Die größten Probleme der Videoübertragung im Internet liegen bei den häufig auftretenden Schwankungen der verfügbaren Bandbreite. Für einen Ausgleich sorgen Puffer auf der Sendeseite (Server) und auf der Empfangsseite (Client): Diese Puffer werden zu Beginn des Sendevorgangs gefüllt. Sobald der Puffer auf dem Clientrechner gefüllt ist, beginnt er mit dem Abspielen des Videos.
Entspricht die Übertragungsrate der Internet-Verbindung kurzfristig nicht der
Datenrate der Videodatei, mit der sie encodiert wurde, so wird das Video
zunächst aus dem Video-Puffer des
Clientrechners weiter abgespielt. Falls
sich die Internet-Verbindung nicht wieder stabilisiert und somit keine weiteren
Datenpakete mehr beim Client ankommen, bleibt das Video stehen.
5. Abruf eines Videos
Für die Client-/Server-Kommunikation im Internet werden spezielle Protokolle benötigt. Für die Videoübertragung wird nicht auf das sonst für die meisten Datenübertragungen gebräuchliche TCP (Transport Control Protocol) zurückgegriffen, sondern UDP (User Datagram Protocol) verwendet. Im Gegensatz zu TCP arbeitet UDP verbindungslos. Falls ein Datenpaket nicht ankommt, wird die Verbindung nicht unterbrochen, sodass UDP zwar unzuverlässiger, dafür aber um einiges schneller als TCP arbeitet. Daher eignet es sich als Protokoll für die Übertragung von Audio- und Videodateien, bei denen die kontinuierliche Anlieferung der Daten im Vordergrund steht. Fehlende Datenpakete, die bei der Übertragung verloren gehen, machen sich in Form von Bildstörungen bemerkbar, was jedoch in Kauf genommen wird.
Abrufvorgang:
1. Über eine Web-Applikation fordert ein Benutzer z.B. über einen entsprechenden Link ein Video an
2. Der Webserver schickt je nach eingesetzter Technologie die Web-Seite an den Browser, auf der
die URL zum Start des Videos eingebettet ist
3. Durch den Aufruf wird das Video-Plug-in oder eine externe Helper-Applikation gestartet. Die
jeweilige Software des Clients baut die Verbindung zum Server auf und fordert das Video an
4. Der Videoserver liest die Datei von den Platten aus und überträgt sie über das Netzwerk an den
Client, wo der Datenstrom dem entsprechenden Decoder zugeführt wird.
Beim Aufruf eines Web-Videos spielen also mehrere Komponenten zusammen: Der Videoserver nimmt die Anfragen der Clients entgegen und sorgt für ein verzögerungsfreies Auslesen der Audio- und Videodateien. Auf dem Client entscheidet der Browser anhand des ankommenden Medientyps, ob er ein Plug-in laden oder ein externes Programm für das Abspielen des Videos starten muss. Falls die ankommenden Datenpakete über ein Plug-in gesteuert werden, spielt dieses das Video im Fenster des Browsers ab. Muss für die Videodateien ein externes Programm gestartet werden, wird das Video in dessen Fenster abgepielt.
Das Plug-in und die Hilfsprogramme
verfügen über eine spezielle Video-Client-Software, die die Anfrage übers Netz
an den Videoserver stellt, die Verbindung aufbaut und den ankommenden
Datenstrom dem Decodierprozess zuführt, der entweder auf Hardware- oder
Softwarebasis erfolgt.
III: Multimedia-Technologien im Internet
Für die Videodigitalisierung existieren
unterschiedliche Codecs und Multimedia-Technologien, die für unterschiedliche Anwendungen eingesetzt werden
können.
1. MPEG
Das Standardisierungsgremium MPEG (Motion Pictures Experts Group) der International Standard Organization (ISO) verabschiedete 1992 den Videostandard MPEG 1. Da bei der Konzeption vor allem auf die Speicherung von digitalisierten Videos auf die damals aktuellen single-speed-CD-ROM-Laufwerke abgehoben wurde, legt der Standard die Digitalisierung von Video- und Audiodaten bei einer Bandbreite von ca. 1,5 Megabit/s fest. So wird in etwa eine mit VHS vergleichbare Qualität erreicht. Heute werden MPEG 1-Videos häufig zum Download angeboten, in schnellen Netzwerken werden sie auch gestreamt. Eine MPEG 1-Datei endet mit ".mpg".
Inzwischen ist seit 1994 der auf MPEG 1
aufbauende Standard MPEG 2 verabschiedet, der festlegt, wie Videos zu
voller Fernseh- und darüber hinausgehender Auflösung digitalisiert werden.
MPEG 2 ist der Standard für DVD-Produktionen und digitales Fernsehen. Aufgrund der hohen Datenraten stellt
MPEG 2 an die heutigen üblichen Rechnersysteme hohe technische Anforderungen. Der Decodierprozess muss
durch eine spezielle Decoderkarte unterstützt werden. MPEG 2 wird momentan
nur über Hochleistungsnetzwerke mit
speziell dafür konfigurierten Videoservern gestreamt (z.B. Videocharger von
IBM). Beim digitalen Fernsehen werden
für das Streaming von MPEG 2 andere
Übertragungsprotokolle als im Internet
verwendet. Für nähere Informationen
siehe z.B. die Homepage der MPEG-
Gruppe: http://drogo.cselt.stet.it/mpeg/ und http://www.mpeg.org.
2. Video-Streaming-Formate 2.1. Produkte
Momentan konkurrieren drei Produkte von verschiedenen Herstellern um die Vorherrschaft im Internet-Video-Geschäft. Das sind zum einen Quicktime 4.0 von Apple, RealSystem G2 der Firma RealNetworks und das Produkt Media Technologies 4.0 von Microsoft.
Alle drei haben unterschiedliche Multimedia-Technologien mit entsprechenden Player-Anwendungen aufgebaut, die genau festlegen, wie Audio- und Videodateien erstellt, gespeichert, übertragen, synchronisiert und abgespielt werden. Diese Technologien definieren als übergeordnete Struktur auch die Formate, in denen die Mediendaten gespeichert werden. Eine Quicktime Datei hat z.B. die Endung ".mov", eine Streamingdatei von Microsoft endet mit ".asf", ein Video von RealNetworks hat die Endung ".rm".
Die Internet-Video-Formate werden durch unterschiedliche Codecs erstellt, die innerhalb der Multimedia-Technologie die Funktion der extremen Datenkomprimierung und der Wiedergabe übernehmen. Einen guten Überblick über die unterschiedlichen Codecs und Multimedia-Technologien gibt http://www.CodecCentral.com
RealNetworks hat seinen
eigenen Codec für die Videokomprimierung entwickelt. Ein RealVideo ist folglich immer
mit diesem Codec komprimiert worden.
(http://www.real.com)
Quicktime unterstützt verschiedene Codecs, einige
davon sind für das Editieren und die Speicherung
von Quicktime-Dateien geeignet, andere wurden speziell für die CD-Romund Internetproduktion konzipiert. Für
Video-Streaming empfiehlt Apple den
speziell für niedere Datenraten entwickelten Sorenson-Codec.
(http://www.apple.com/quicktime)
2.2. Vergleich der Streaming-Technologien
Die Media Technologies
sind Microsofts Nachfolgeprodukt von "Video for
Windows" (AVI), das von
ihnen nicht weiter unterstützt wird. Das
neue Active Streaming Format (ASF) umgibt wie ein Mantelformat verschiedene
Codecs. Die besten Video-Streaming-Eigenschaften innerhalb der Media Technologies werden mit dem MPEG 4-
Codec erreicht, der eine gute Bildqualität auch bei niederen Datenraten ermöglicht. (http://www.microsoft.com/windows/windowsmedia)
Apple, RealNetworks und Microsoft
haben bei der Übertragung von digitalen
Video- und Audiodateien übers Netz einige Gemeinsamkeiten und unterscheiden sich auch in einigen Punkten.
HTTP-Streaming
Oft wird diese Streaming-Variante auch
"progressives Downloaden" genannt, da
der Benutzer das Video bereits während
des Ladevorgangs sukzessive auf seinem
Rechner betrachten kann. Jedoch kann
er immer nur den Teil der Datei betrachten, der bereits auf dem eigenen Rechner
angekommen ist, ein Navigieren ist nur
in dem bereits heruntergeladenen Bereich der Videodatei möglich. Der Player
überwacht den Ladevorgang und startet
das Video, sobald eine ausreichend
lange Sequenz vorhanden ist, obwohl
der Downloadprozess noch nicht vollständig abgeschlossen ist. HTTP-Streaming wird es deshalb genannt, denn
Standard HTTP-Server können Videound Audiodateien auf diese Art senden,
ohne dafür spezielle Protokolle zu
benötigen. Alle drei beschriebenen Multimedia-Technologien unterstützen
diese Variante. Quicktime bot bis zur
Version 3.0 nur diese Möglichkeit.
True-Streaming
Mit True-Streaming (von Microsoft auch "intelligentes"-Streaming genannt) wird eine Technologie bezeichnet, die einen speziellen Medienserver und speziell dafür entwickelte Streaming-Protokolle erfordert wie z.B. rtp (real transport protocol) und rtsp (real transport streaming protocol). Bei dieser Streaming-Art wird die Bandbreite des Datenstroms zur Benutzeranbindung aufrecht erhalten, um das Video in Echtzeit betrachten zu können. Server und Client kommunizieren miteinander und im Falle einer Verschlechterung der Verbindung werden einzelne Bilder weggelassen. Dabei gilt als Prämisse, dass eher die Bildqualität degradiert, als dass das Abspielen unterbrochen wird. In manchen Fällen erreicht den Benutzer nur noch die Audiospur, die gesamte Bildinformation fällt weg.
In der Regel besteht neben der UDP-Verbindung für die Übertragung der Bildund Audiodaten eine zweite Verbindung, die als Steuerungskanal zwischen Server und Player fungiert. Über sie meldet der Player Interaktionen des Benutzers an den Server, wodurch das Navigieren in den Videos erst möglich wird. Das Video kann jederzeit gestoppt oder an späteren oder früheren Stellen neu gestartet werden.
Für Anwender, die sich in einem firewall-geschützen Netzwerk befinden,
kann diese Übertragungsart problematisch sein.
Alle drei vorgestellten Internet-Videotechnologien unterstützen True-Streaming mit entsprechenden Streamingservern und Protokollen.
Skalierbarkeit
Die Verfügbarkeit der Bandbreite ist für das Abspielen von digitalen Videos entscheidend. Jedoch kann im Internet keine Garantie dafür gegeben werden, mit welcher Datenrate der Betrachter im Moment des Streamings rechnen kann. Die Hersteller der Streaming-Technologien haben sich noch mehr einfallen lassen, um das kontinuierliche Abspielen der Videos zu gewährleisten.
Quicktime hatte bereits in seiner Vorgängerversion in Form von "Alternates" eine Skalierbarkeit eingeführt. Beliebig viele Versionen eines Videos können für unterschiedliche Bandbreiten encodiert und abgespeichert werden. Beim Anfordern des Videos wird beim Aufbau der Netzwerkverbindung automatisch die Version angewählt, die den Voreinstellungen des Benutzers im Quicktime- Kontrollfeld entspricht. Quicktime´s Streaming-Technologie ermöglicht so kein gleitendes Umschalten bei sich ändernder Netzwerkverbindung während der Übertragung. Natürlich können, wie beim True-Streaming beschrieben, kurzfristigen Netzwerkbeschränkungen durch das Weglassen einzelner Bilder Rechnung getragen werden.
Windows Media Technologies passt sich durch eine limitierte Skalierbarkeit an verschiedene Netzwerkbedingungen an. ASF-Dateien verfügen über zwei Videospuren, die zu unterschiedlichen Bandbreiten encodiert wurden. Zu Beginn des Abspielens kommunizieren Server und Player und wählen den Videotrack, der am besten für die jeweils bestehende Verbindung zum Clientrechner geeignet ist.
Die derzeit an die Bedingungen im Internet am besten angepasste Streaming- Technologie hat RealNetworks konzipiert. Mit dem "SureStream"-Feature können bis zu sechs Versionen eines Audio- oder Videotracks für verschiedene Bandbreiten encodiert werden. Bei der Übertragung wird dynamisch zwischen den sechs Versionen geschaltet, wobei immer die bestmögliche Qualität für die gegebene Bandbreite gesendet wird.
Welche Streaming-Methode letztendlich gewählt wird, hängt von den jeweiligen Zielsetzungen ab. Progressives Downloaden garantiert zwar durch die verwendeten Übertragungsprotokolle die Qualität des Videos, jedoch kann es zu längeren Wartezeiten kommen, bis das ganze Video angekommen ist. Deshalb werden mit dieser Streaming-Methode v.a. kürzere Filme wie Trailer und Werbevideos übertragen.
Bei längeren Videos und bei gewünschtem wahlweisen Zugriff auch auf spätere
Teile im Video ist die Übertragung in
Echtzeit durch "richtiges" Streaming
sinnvoll.
IV. Erschließung von Videos 1. Methoden
Mit dem wachsenden Angebot von Multimedia im Internet steigt auch die Nachfrage nach geeigneten Erschließungs- und Suchmechanismen. Bereitet die Erschließung von textbasierten Web-Informationen mittels Suchmaschinen schon erhebliche Probleme, so gestaltet sich die Situation bei multimedialen Inhalten noch wesentlich schwieriger. Eine amerikanische Kollegin drückt dies mit den Worten aus: It is clearly much more fun to develop multimedia content than to index it."
Die Probleme liegen nicht wie bei textbasierten Web-Informationen in der riesigen Menge an Material, sondern an den prinzipiellen Schwierigkeiten des maschinellen Indexierens von Multimedia. Die maschinelle Erschließung von Bild- und Tondateien ist zwar derzeit Gegenstand intensiver Forschung, die Entwicklung praxistauglicher Systeme steckt indes noch in den Kinderschuhen.
Ein maschinelles System zur maschinellen Indexierung von Videos muss Folgendes leisten:
1. Zerlegen des Videostreams in Einzelbilder
2. Erkennung von Schlüsselszenen
3. Zerlegen der Schlüsselszenen in einzelne Objekte
4. Zuordnung der Objekte zu Begriffen.
Die Forschung befasst sich heute vor
allem mit den Teilbereichen 2 und 3,
hier sind prototypische Systeme vorhanden. Für Teil 4 die Umsetzung von Formen in Begriffe sind indes noch keine
Lösungen in Sicht. Erfolg versprechender sind Versuche, Objekte durch Charakteristika wie Umriss, Farbe oder Textur zu beschreiben und dadurch auffindbar zu machen. Weitere Informationen
hierzu findet man zum Beispiel bei
http://www.dlib.org/dlib/november99/wang/11wang.html.
2. Metadaten für Multimedia: MPEG 7
Wie bereits erwähnt wurde, existieren mehrere MPEG-Standards, die technische Spezifikationen für digitale Audiound Videodateien vorgeben. Erste Teile des Standards MPEG 4 wurden 1998 mit dem Ziel verabschiedet, möglichst viele Anwendungsbereiche aus den bis dahin verabschiedeten MPEG-Standards zusammenzufassen. Der Standard wird derzeit weiterentwickelt. Wesentliche Funktionalitäten von MPEG 4 sind dabei neben verbesserten Kompressionsverfahren und Skalierbarkeit auch die Aufnahme inhaltsbezogener Interaktivität. Damit ist es möglich, Manipulationen an einzelnen Sequenzen der Videodateien vorzunehmen und Multimediadaten durch Indexierung erschließbar zu machen.
Beschreiben die MPEG-Standards 1, 2 und 4 vornehmlich technische Verfahren, so befasst sich der derzeit jüngste MPEG-Standard 7 mit der Erschließung von Inhalten. Er beschreibt Formate, die Audio- und Videosequenzen, Bilder und Grafiken in einer zweckmäßigen und effizienten Darstellung repräsentieren, um damit eine Informationssuche möglich zu machen.
Im Oktober 1998 erfolgte der Call for
Proposals'' für MPEG 7, der internationale Standard wird für September 2001
erwartet. Im Wesentlichen definiert
MPEG 7 einen Satz von Deskriptoren
und deren Beziehungen zueinander. Die
Deskriptoren beschreiben Eigenschaften
der Videosequenz in abstrakter Form,
wie zum Beispiel Farben, Texturen, Objekte oder Bewegungsvektoren, aber
auch Informationen über Autoren, Urheberrechtsinhaber, Datenträger und
Dauer. Für die Kodierung dieser Metainformationen nutzt MPEG ein eigenes
Verfahren, das sich an XML anlehnen
soll.
3. Derzeitiger Stand der Erschließung
Die Entwicklung der Technik bei der Erschließung von Video hat bis heute Systeme an den Markt gebracht, die ein
Video in einzelne Sequenzen zerlegen
(shot detection) und diesen einen manuell erstellten Text zuordnen können.
Die Suche im System ermöglicht dann
den direkten Sprung auf die entsprechende Videosequenz. Auf dieser Technik basiert beispielsweise die von der
Firma Virage besorgte Aufbereitung des
inzwischen berühmten Clinton-Videos
(http://www.courttv.com/video/ccvideotape_index.html). Da diese Art des
Vorgehens manuelle Eingaben erfordert,
wird es vor allem bei geschlossenen
Sammlungen angewendet. Für die Erschließung von Videodateien im Web ist
es jedoch kaum brauchbar.
V. Suchdienste 1. Universalsuchdienste
Mehrere Suchmaschinen bieten eine spezialisierte Internetsuche nach Multimediadateien an. Dabei wird nicht die Multimediadatei selbst, sondern der Inhalt der mit den Multimediadateien verknüpften Texte indexiert. Im WWW sind dies in der Regel HTML-Dateien, die einen Link auf eine Multimediadatei enthalten. Indexiert werden meist auch die URLs der Multimediadateien. Dass diese Art der Erschließung fehlerbehaftet ist, zeigt sich an den Trefferlisten, die häufig nicht das gewünschte enthalten. Auf dieser Basis bieten die meisten großen Suchmaschinen zum Teil schon seit längerem die Möglichkeit, die Suche im Internet auf bestimmte Multimediadateien zu beschränken. Am häufigsten sind die Suchoptionen nach Bilddateien und MP3-Audiodateien, z.B. bei Alta Vista, Hotbot, Fast oder Metacrawler, eine Suche nach Video wird seltener angeboten.
Generell ist anzumerken, dass natürlich bei allen Suchmaschinen eine Suche auf Videos eingegrenzt werden kann, indem die Suchanfrage entsprechend formuliert wird, zum Beispiel "+kohl +mov". Eine besonders große Anzahl von Suchmaschinen bietet eine Suche nach MP3- Audio-Files, neben MP3.COM (http://www.mp3.com/), Audiofind (http://www.audiofind.com/) und Lycos MP3 Search (http://mp3.lycos.com/), um nur einige zu nennen. Auf MIDI beschränkt ist der MIDI Explorer (http://www.musicrobot.com/), ein auf Bilder spezialisierter Suchdienst ist Ditto (http://www.ditto.com/).
Einen Eindruck über die Größenordnung des verfügbaren Videomaterials im Web mögen die Zahlen aus Tabelle 1 geben, wobei es sich nicht um exakte Ergebnisse handelt: Beispielsweise erfasst die Suche nach "mov" auch MPEG-Videos, die im Dateinamen "mov" tragen.
Tabelle 1: Anzahl Treffer bei Suche nach
1.1 Alta Vista
Als einer der ersten großen Suchdienste bietet Alta Vista eine auf Multimedia begrenzte Suche an. Sowohl die deutsche als auch die US-Seite bieten eine Einschränkung der Suche auf Musik, Bilder oder Video.
Die Syntax bei der Suche ist dieselbe wie bei der normalen Suche, die Aufbereitung der Treffer bietet einige Spezialitäten: Die Ergebnisseite enthält den Dateinamen, einen Thumbnail des ersten Videostandbildes, die Spieldauer, die Dateigröße und einen Link zu "weiteren Informationen". Man kann durch Anklicken von "Detaillierte Ansicht" die Ergebnisseite in einer ausführlichen Version ansehen, die zusätzlich Informationen über das Dateiformat (z.B. mov, rm, avi), den Titel der Seite, den Namen der Datei, in der näheren Umgebung stehende Texte, den Titel des Clips und den Autor sowie über das Copyright enthält. Darüber hinaus finden sich Angaben zur Spieldauer, Dateigröße und ein Link "Mehr Info" mit weiteren Informationen über Dateiformat und -größe, die Breite und Höhe sowie die Tiefe und Anzahl der Rahmen.
Klickt man "Mehr Musik, Video und Bilder von dieser Seite" an, liefert Alta Vista
eine Zusammenfassung der übrigen Dateien, die sich auf derselben Seite befinden wie das gesuchte Objekt. Mittels
einer Checkbox kann Clustering aktiviert werden, d.h. die Resultate werden
auf eine URL begrenzt. Der größte Anteil
der Seiten liegt in den USA, wie man mit
einer Suche nach "Berlin" oder "Kohl"
leicht feststellen kann. Die Qualität der
Ergebnisse ist mäßig, da insbesondere
das Ranking der Treffer wenig durchdacht scheint.
1.2 HotBot
Die Suchmaschine HotBot (http://hotbot.lycos.com) erlaubt über die Eingrenzung der Suche auf bestimmte Dateitypen eine Recherche nach Videos. Die
Trefferliste unterscheidet sich nicht von
der Standardergebnisliste und enthält
keine zusätzlichen videospezifischen Informationen.
1.3 Excite
Über die Homepage von Excite gelangt
man über den Link "Advanced Search"
zu einer Suchmöglichkeit nach Videos.
Die Videosuche kann auf bestimmte Formate eingeschränkt werden, die Ergebnisliste enthält wie bei HotBot keine
über die normale Trefferliste hinausgehenden Informationen.
1.4 Lycos
Bei Lycos kann unter http://www.richmedia.lycos.com nach Multimediadateien gesucht werden. Videos findet
man unter "movies" und "streams",
wobei zwischen Audio- und Videostreams nicht unterschieden wird.
1.5 Scour.Net
Als ein auf Multimedia spezialisierter
Suchdienst präsentiert sich Scour.Net
(http://scour.net/). Wenn die Videosuche keine Treffer ergibt, werden automatisch Bilder als Ergebnisse angezeigt. Anscheinend enthalten die Trefferlisten
zahlreiche Dubletten. "More info" öffnet ein neues Browserfenster mit zusätzlichen Informationen wie Dateiname,
Format, Größe und Keywords. Über die
Funktion "find similar files" wird nach
ähnlichen Dateien gesucht, wobei im
Dunkeln bleibt, nach welchen Kriterien
dies geschieht.
2. Sammlungen und Verzeichnisse
Neben Suchmaschinen gibt es auch zahlreiche Verzeichnisse und Sammlungen von frei zugänglichen Videos im Netz. Generell gilt dabei, dass thematisch stark eingegrenzte Verzeichnisse über bessere Inhalte verfügen als solche, die einen umfassenden Charakter aufweisen.
Allgemeine Sammlungen
Fernsehbeiträge
Spezielle Sammlungen
Kunstvideos
VI. Schluss
Wie gezeigt wurde, stehen sowohl Angebot als auch Erschließung von Internet- Videos noch am Anfang. Man gewinnt den Eindruck, dass sich die neue Technologie momentan noch im Experimentierstadium befindet und eher durch spielerisches Ausprobieren als durch ernst zu nehmende Inhalte geprägt wird. Dennoch zeichnet sich bereits heute ab, dass es für Streaming-Video ein breites Anwendungsgebiet geben wird, vor allem im Bereich der Aus- und Weiterbildung. Unklar ist derzeit noch, welche Streaming-Technologie sich langfristig behaupten und am Markt durchsetzen kann.
Die Erschließung von Multimedia-Dateien leidet unter denselben Defiziten wie die Erschließung textbasierter Internet-Informationen. Erst mit der Verabschiedung von MPEG 7 wird der Weg bereitet werden, diese Multimediainhalte künftig sinnvoll zu beschreiben und erschließen.
Dr. Michael Mönnich ist Fachreferent für Informatik an der Universitätsbibliothek Karlsruhe und leitet die Abteilung für das Bibliothekssystem.
Dipl.-Volkw. Regine Tobias ist wissenschaftliche Mitarbeiterin an der Universitätsbibliothek Karlsruhe und betreut im Rahmen der Multimedia AG der Zukunftsoffensive "Junge Generation" des Landes Baden- Württemberg das Projekt "Verbesserung der Nutzung von audiovisuellen Beständen durch Digitalisierung".