Suche

» erweiterte Suche » Sitemap

Informatik

Christian Fabian Gloning

Digitalisiertes TV-Langzeitarchiv

Analyse der vernetzten, bandlosen Content-Produktion, -Speicherung und -Verwertung

ISBN: 978-3-8366-6445-5

Die Lieferung erfolgt nach 5 bis 8 Werktagen.

EUR 38,00Kostenloser Versand innerhalb Deutschlands


» Bild vergrößern
» Blick ins Buch
» weitere Bücher zum Thema


» Buch empfehlen
» Buch bewerten
Produktart: Buch
Verlag: Diplomica Verlag
Erscheinungsdatum: 08.2008
AuflagenNr.: 1
Seiten: 94
Abb.: 12
Sprache: Deutsch
Einband: Paperback

Inhalt

In den letzten zehn Jahren hat sich in der Medien-Branche immer deutlicher eine Entwicklung weg von der analogen Produktion hin zu einer digitalen herauskristallisiert. Motor für diesen Trend sind zahlreiche innovative Anwendungsmöglichkeiten in der elektronischen Datenverarbeitung und IT. Auch in Deutschland führte dies zu Denkprozessen, wie man eine Umstrukturierung der Medien-Produktionslandschaft vollziehen kann. Betrachtet man die Fernsehanbieter und deren Bestrebungen, zeichnet sich ein Weg ab hin zur vernetzten, bandlosen Content-Produktion, -Speicherung und -Verwertung. Maßgebend für diese Entwicklung ist der Erhalt der Wettbewerbsfähigkeit und das immer schneller wachsende Angebot an innovativen Produktions- und Informationsmöglichkeiten. Diese beiden Gründe gehen einher mit der rasant zunehmenden und immer schneller werdenden Informationsvielfalt, die dem Konsumenten in Form von sich ständig weiterentwickelnden und teils neu entstandenen Kanälen wie Internetblogs, Video on Demand, Handy-TV etc. zur Verfügung steht. Angeregt durch das Projekt EMSA (Essence Management & Storage Aktuelles) der ProSiebenSat.1 Produktion GmbH entstand die Idee zu dieser Arbeit. Das Projekt befasst sich mit der Erschließung und Digitalisierung aller programmspezifischen Inhalte eines Fernsehsenders in eine zentral verwaltete Produktionsumgebung. In deren Mittelpunkt rückt das bis dato am Ende der Produktionskette stehende Archiv. Daraus entstehen dann auch neue Möglichkeiten wie man auf die Bildmaterialien zugreift und diese verwertet. Die Arbeit soll einen Überblick über bereits bestehende Produktions- und Kommunikationstechniken geben und eine weiterführende Aussicht auf künftige Innovationen bieten. Auch hinsichtlich der daraus resultierenden wirtschaftlichen Effekte für ein TV-Unternehmen schafft diese Arbeit zusätzliche Anreize.

Leseprobe

Kapitel 5, Personelle Grundlagen und Workflow: Auf Grund der immer schneller vorangetriebenen Entwicklungen im professionellen IT-Bereich und der Datenverarbeitung ergeben sich neue Workflow-Strukturen. Wo früher mit relativ großem personellen und zeitlichen Aufwand gearbeitet wurde, ist man heute in der Lage, zahlreiche Arbeitsschritte automatisiert und computergesteuert so abarbeiten zu lassen, dass vorher definierte Zielsetzungen und Anforderungen erfüllt werden. All diese Anforderungen sollten durch eine passende CMS abgedeckt werden. Für die Interaktion mit der CMS ist natürlich menschliche Arbeitskraft nötig, doch das Berufsbild des Archivars hat sich in diesem speziellen Bereich nachhaltig geändert. Heute ist eine Fachkraft gefordert, die Kenntnisse in der elektronischen Datenverarbeitung (EDV) mitbringt. In den folgenden Kapiteln wird auf diese Arbeitsabläufe und die damit verbundenen Anforderungen an den Arbeitnehmer genau eingegangen. Materialeingang: Beim Materialeingang wird zwischen zwei Arten unterschieden. Zum einen wird selbstproduziertes Material angeliefert. Dieses kann aus einer Fernsehregie innerhalb des Senders oder von außerhalb durch einen Übertragungswagen zur Verfügung gestellt werden. Es wird auch von EB-Teams (elektronische Berichterstattung) angeliefert, die das Material auf Aussendrehs gefilmt haben. Zum anderen wird fremd produziertes Material angeliefert. Dieses kann einerseits in Form von Serien oder Filmen von einer Produktionsfirma oder einem Studio angeliefert werden. Andererseits kann es im Haus durch nationale und internationale Überspielungen bzw. Feeds aufgezeichnet werden. Das Material wird von einem Archivmitarbeiter angenommen und dann mit der CMS elektronisch erfasst. Es erhält somit eine Identifikationsnummer (ID). Die ID wird von der CMS automatisch und fortlaufend generiert, so dass jede ID immer nur einmal vorkommt. Wurde das Material nicht digital sondern herkömmlich auf Band angeliefert, wird es zum Ingest weitergeleitet. Ingest – Einspielen von Material: Grundsätzlich wird davon ausgegangen, dass ein komplett digitales Archiv entstehen soll. Aus diesem Grund werden zunächst alle bisher auf Video-Kassetten archivierten audiovisuellen Inhalte auf Festplatten überspielt. Nach diesem Schritt werden dann die nicht mehr benötigten Bänder entsorgt. Das Aufspielen erfolgt zunächst chronologisch abwärts nach Entstehungsdatum. Es muss aber gleichzeitig überprüft werden, welches Material mit welcher Priorität aufgespielt werden muss. Diese Prioritäten sollten von den einzelnen Redaktionen festgelegt und danach dem Archiv mitgeteilt werden. Der nächste Schritt wäre dann die Suche des beantragten Materials. Dieses wird mit Hilfe einer sog. Ingest-Cart- Maschine auf einen Server gespielt, was auch als Cache bezeichnet wird. Wenn es sich beim aufzucachenden Material um neu gedrehtes Rohmaterial handelt, welches für die Postproduktion bestimmt ist, wird dieses von dem jeweiligen Speichermedium auf den Cache-Server aufgespielt. Nach dem Cachevorgang wird das Rohmaterial dann durch einen automationsgesteuerten Filetransfer vom Cache-Server zum Zielsystem übermittelt. Das Zielsystem - etwa ein Schnittplatz wie AVID Unity - wird durch einen Transfermanager informiert die Datenbank wird dadurch aktualisiert. Der Editor kann dann den Clip suchen und in sein Projekt zum Schnitt laden. Die Suche erfolgt nach vorher festgelegten Metadaten wie Titel des Beitrags, ID etc. Ist der Transfer zum Schnittplatz abgeschlossen, wird das Rohmaterial auf dem Cache-Server gelöscht. Der Ingest von neuem Lizenzmaterial - sprich Serien und Filme - erfolgt ebenfalls über die Cart-Maschine und richtet sich nach denselben Regeln wie auf die zu vergebenen Metadaten. Da es sich bei dem angelieferten Band um Fremdeigentum der jeweiligen Produktionsfirma handelt, wird dieses zunächst auf den Cache-Server aufgespielt und geht dann an die Produktionsfirma oder das Studio zurück. Nachdem die Senderechte abgelaufen sind, muss das Lizenzmaterial aus dem Archiv-System gelöscht werden. Qualitätssicherung des Materials: Die Qualitätssicherung von audiovisuellem Content befasst sich zum einen mit rein technischen Parametern, die für die langfristige Speicherung und Sendefähigkeit von Bedeutung sind. Zum anderen erfolgt eine Kontrolle des Bildinhalts durch partielle Sichtungen des Materials. Die Überprüfung der inhaltlichen Qualität obliegt der Redaktion und wird in dieser Arbeit nicht berücksichtigt. Die Qualitätskontrolle ist in zwei Bereiche unterteilt, die sich nach unterschiedlichen Ausgangsituationen richten. Die beiden Situationen unterscheiden sich durch die Form des zu archivierenden Contents. Handelt es sich um angelieferte Video-Kassetten, erfolgt deren qualitative Kontrolle nach bereits etablierten und definierten Abläufen. Dabei wird das Band messtechnischen Verfahren unterzogen. Bei Bändern, die aus dem bereits bestehenden Archiv aufgespielt werden, entfällt die Qualitätskontrolle, da sie bereits vor ihrer Archivierung geprüft wurden. Die zweite Situation ist dadurch gekennzeichnet, dass der Content bereits in digitaler Form als File vorliegt. In diesem Fall erfolgt die Qualitätskontrolle in Bezug auf Datenstruktur und die Dateiendung automatisch durch die Content Management Software. Nachdem die Qualitätssicherung erfolgreich abgeschlossen ist, erfolgt die Freigabe des Materials. Erstellung der Metadaten: Um die Arbeit im Archiv möglichst effizient zu halten und um keine unnötigen Arbeitsschritte entstehen zu lassen, ist es zwingend notwendig, dass bereits im Vorfeld Informationen über das audiovisuelle Material gesammelt werden. Hier steht die redaktionelle Arbeit im Mittelpunkt. Da das meiste Material von Aussendrehs in den Sender gelangt, muss der begleitende Redakteur Metadaten über das gedrehte Material anfertigen. Nachdem dieses Material im Schnitt weiterverarbeitet wurde, müssen die inhaltsbeschreibenden Metadaten vom Redakteur hinterlegt werden. Der Cutter ist nach Fertigstellung dafür zuständig die strukturbeschreibenden Metadaten zu ergänzen. Wenn man von einer bandlosen Produktion ausgeht, werden die Metadaten direkt ins File eingebettet. Die gesamten Arbeitsmaterialien aus der Produktionsphase wie Rohaufnahmen, Schnitt- und Restmaterialien sowie Duplikate verbleiben zunächst auf dem Produktionsserver. Um eine zu große Datenflut für das Langzeitarchiv zu vermeiden, sollte dann vom Redakteur eine Auswahl an archivierungs-würdigem Material getroffen werden. Hier ist natürlich besonderer Wert darauf zu legen, dass der Inhalt nicht nur relativ kurzfristige Informationsbedürfnisse befriedigt, sondern auch mittel- und langfristig eine hinreichende Aussagekraft besitzt, selbst wenn die programmliche Relevanz der Aufzeichnung nicht mehr gegeben ist. Wenn es sich um extern angelieferten Content wie Lizenzmaterial handelt, ist zu klären, in welchem Umfang bereits Metadaten vorhanden sind. Dies sind meistens technische Informationen über Auflösung, Kompression, Audiospuren etc., es können aber auch Informationen über das Entstehungsjahr, Darsteller, Regisseur sein. Die Erstellung dieser Metadaten erfolgt durch einen Mitarbeiter des Archivs. Diese werden dann beim Digitalisierungsprozess mit in das entsprechende File integriert. Wenn altes Bandmaterial aus dem Archiv eindigitalisiert wird, erfolgt die Erstellung der Metadaten über den Cache-Operator. Falls noch keine inhaltsbezogenen Metadaten erfasst wurden, muss der Cache-Operator während des gesamten Prozesses den Inhalt verfolgen und Notizen machen, welche er dann dem Archiv übermittelt. Diese Informationen - plus die technischen Informationen der MAZ-Karte - werden dann in das entsprechende File integriert. In Zukunft könnte eine automatische Inhaltsanalyse des Materials möglich sein. In diesem Bereich wird bereits geforscht und entwickelt, wie jüngst vorgestellte Systeme zur Gesichtserkennung in Videobildern von Überwachungskameras gezeigt haben. Auch die Erkennung von Texteinblendungen, die Spracherkennung von O-Tönen und selbst die automatische Szenenerkennung wären denkbar. Diese Funktionen könnten dann zusätzlich in die CMS integriert werden.

Über den Autor

Christian Fabian Gloning, Medienbetriebswirt (FH), Studium der Angewandten Medienwirtschaft an der FH Mittweida. Abschluss 2007 als Bachelor of Arts.

weitere Bücher zum Thema

Bewerten und kommentieren

Bitte füllen Sie alle mit * gekennzeichenten Felder aus.