Filmlexikon

Filmlexikon & Glossar – Filmwissen von A bis Z

Viele Begriffe aus der Welt der Film- und TV-Produktion verwirren und machen es nicht einfach, die Materie zu verstehen. Imagevideo, Eventvideo, Industriefilm, Produktfilm, 3D Animation und vieles mehr. Das Film-Lexikon auf film-connexion soll Ihnen den Durchblick geben, was hinter den Fremdwörtern steckt. Von A wie Animation, über B wie Bauchbinde, bis Z wie Zoomobjektiv! Im Filmlexikon können Sie auf einen Blick Erklärungen zu den gängigsten Begriffen aus der Filmwelt nachlesen. Wenn Sie etwas nicht verstehen: Rufen Sie uns an! Wir helfen Ihnen gerne weiter. Wenn Sie einen ganz bestimmten Begriff suchen – bitte oben rechts auf die Lupe klicken.

0-9

Die 180°-Regel ist eine bildgestalterische Richtlinie, die verhindern soll, dass der Zuschauer die Orientierung in einer Bildfolge verliert. Sie besagt, dass sich in jedem Bild eine virtuelle Handlungsachse befindet, z.B zwischen zwei Personen, die sich unterhalten oder zwischen einer Person und einem Gegenstand. Diese virtuelle Handlungsachse darf nicht innerhalb eines Schnittes übersprungen werden. Die einzige Möglichkeit die Achse zu überqueren besteht darin, das Bild (bspw. mittels einer Kamerafahrt) über die Achse gleiten zu lassen. Beachtet man diese Regel nicht provoziert man einen sogenannten Achsensprung.

A

Unter Abhörmonitoren versteht man sehr hochwertige Lautsprecher, mit denen man die Qualität eines Audiosignals feststellen kann. Je nach Anzahl der Kanäle eines Films benötigt man auch die entsprechende Anzahl an Boxen. Hört man zum Beispiel den Stereoton eines Industriefilms ab, so benötigt man zwei getrennte Abhörmonitore. Handelt es sich jedoch um einen hochwertigen Imagefilm mit einem fünfkanäligen Dolby Digital – Ton, werden auch fünf Monitore gebraucht. Dabei wird der Ton nicht etwa mit einem hochkomplizierten Messgerät abgehört, sondern mit dem Gehör. Deshalb bilden viele Cutter und Tonmänner im Laufe ihrer Berufserfahrung ein sehr sensibles Gehör aus.

Ein Achsensprung beschreibt die Verletzung der 180°-Regel. Beim Achsensprung springt die Kamera von einem Bild zum Nächsten über eine gedachte Handlungsachse. Dies zieht meist ein unangenehmes Empfinden auf den Zuschauer nach sich. I.d.R. geht die räumliche Orientierung beim Zuschauer verloren, da er Bezugspunkte im Bild nicht mehr ohne Weiteres zuordnen kann. Deshalb sollte man Achsensprünge so gut es geht vermeiden, in dem man entweder mit der Kamera auf einer Seite der Handlungsachse bleibt (siehe 180°-Regel) oder aber den Sprung über die Achse in der Bewegung darstellt.

Ein Akkugürtel besteht aus mehreren Akkuzellen, die miteinander zu einem flexiblen Gürtel verbunden sind. Die meisten Gürtel dieser Art besitzen eine Spannung von entweder 12 oder 14,4 Volt. Sie sind meist sehr schwer, deshalb werden sie nur dann eingesetzt, wenn modernere Akkusysteme zu teuer sind. Trotzdem kommt er auch heute noch in kleineren Web- und Industriefilmen zum Einsatz. Über einen Akkugürtel werden meist verschiedene Beleuchtungssysteme gespeist. Am häufigsten wird das Kopflicht auf der Kamera an einem solchen Gürtel angeschlossen.

Die Amerikanische Einstellung ist ein Begriff, der aus den alten Westernfilmen abgeleitet wurde. In dieser Kameraeinstellung werden Personen von Kopf bis knapp unter der Hüfte gezeigt, also bis zu der Stelle, an der früher der Colt saß.

Unter einer Angel oder auch Tonangel versteht man eine ausziehbare, meist sehr leichte Kunststoff- oder Aluminiumstange, an der man am Ende ein Mikrofon anbringt. Mit dieser Angel arbeitet der Tonmann und nimmt O-Töne von Personen auf, die zuvor nicht mit einem Ansteckmikrofon verkabelt werden konnten. Dieser Vorgang wird in der Filmproduktion „angeln“ genannt.

Wörtlich gesehen bezeichnet „Animation“ jede Technik, die Einzelbilder aneinander reiht und ein bewegtes Bild erschafft. So zum Beispiel beim Zeichentrickfilm. Heutzutage wird jedoch das Wort „Animation“ mit einer 3D-Animation gleichgesetzt. Diese Technik, bei der ein Film komplett am Computer entsteht, ist seit 1980 bekannt und erfährt seitdem einen rasanten Anstieg. Die Objekte basieren meist auf Vektordaten, zu denen im Anschluss noch Informationen über Aussehen, Bewegung und Oberflächenstruktur hinzugefügt werden. Zuletzt muss dann jedes Einzelbild berechnet und schließlich gerendert werden. In den meisten Fällen kommen Animationen im Kino oder Fernsehen vor, sehr oft auch in Form von Werbung. Animationen helfen ebenso in Bereichen der Naturwissenschaft oder Architektur.

Ansteckmikrofone sind kleine Kugelmikrofone, die meist mit einer Klammer direkt an der Kleidung des O-Ton-Gebers angebracht werden. Da das Mikrofon sehr dicht an der Schallquelle angebracht ist, hat man den Vorteil eines sehr reinen Tons. Umgebungsgeräusche gibt es nur sehr wenig. Nachteil der Ansteckmikrofone ist die Anfälligkeit gegenüber Körperschall (Mikrofongeräusche bei Berührungen, etc.). Außerdem muss der Protagonist direkt in die Richtung des Mikrofons sprechen. Dreht er sich weg, versteht man nur noch einen Bruchteil des O-Tons.

Avi ist die Kurzform für „Audio Video Interleaved“ und ist ein Containerformat, das von der Firma Microsoft entwickelt wurde. In dem Container sind Audio und Video ineinander verschachtelt. Sie sind „interleaved“. Das Format war damals als einheitliche Lösung zur Wiedergabe kurzer Filmsequenzen gedacht und ist so alt wie der PC selbst. Deswegen wird der Container heute von den meisten Multimedia-Playern unterstützt, sodass man das Video beinahe überall abspielen kann. Fast alle DVD-Player können Avi-Dateien lesen und wiedergeben. Das Avi-Format besitzt jedoch einige Nachteile. So lassen sich Untertitel in einer Avi-Datei nur stark begrenzt einfügen. Außerdem existieren keinerlei Möglichkeiten zur Erstellung von Menüs oder Kapiteln. Da Avi ein Containerformat ist, kann man zur Qualität des Videos keinerlei Aussagen treffen. Entscheidend ist die Codierung des Videos.

B

Eine Bauchbinde ist eine Einblendung, meist am unteren Bildschirmrand, in der Name, Alter und Funktion einer Person angezeigt wird. Bauchbinden werden in der Regel in einem Originalton (O-Ton) eines Interviewabschnitts eingeblendet. Die Informationen sollen helfen das Gesagte besser einzuordnen. Bauchbinden können in Form und Farbe variieren. Von einer einfachen Farbbalkeneinblendung bis zur aufwendigen Animation ist so gut wie alles möglich. Bauchbinden lassen sich auch ohne O-Ton-Geber verwenden. Zum Beispiel in Industriefilmen, da man zusätzliche Informationen in ihnen unterbringen kann, die im Film nicht vorkommen.

Wenn ein Objekt sich mit einer bestimmten Geschwindigkeit an einem Kameraobjektiv vorbei bewegt, so ist das Objekt nicht gestochen scharf. Je schneller es sich bewegt, desto unschärfer wird es. Bewegt sich die Kamera mit einem Objekt in derselben Geschwindigkeit, so ist zwar das Objekt scharf, der Hintergrund verschwimmt jedoch in der Unschärfe. Dieser Effekt wird in beiden Fällen als Bewegungsunschärfe bezeichnet. Neben der Bewegungsgeschwindigkeit spielt auch die Belichtungszeit eine entscheidende Rolle. In der Fotografie war dieser Effekt anfangs eher unerwünscht. Mittlerweile wirkt das Bild (egal ob bewegt oder unbewegt) aber ästhetischer, wenn es ein gewisses Maß an Bewegungsunschärfe aufnimmt. Sollte die Unschärfe doch Überhand nehmen, kann man den Effekt mit der Einstellung einer niedrigeren Verschlusszeit verringern.

Die Bildachse ist eine gedachte Linie innerhalb eines Bildes. Sie verläuft zwischen der agierenden Hauptperson und bspw. einer Nebenperson bzw. dem Gegenstand, mit dem die Person agiert. Die Bildachse ist elementar wichtig, um dem Zuschauer einen Eindruck von der Umgebung zu vermitteln, ohne ihn zu verwirren. Dafür muss die Kamera immer auf einer Seite der Handlungs- oder Bildachse sein. Die einzige Möglichkeit, die Achse zu überqueren, ist, die Person über die Achse treten zu lassen oder aber die Kamera mittels einer Fahrt über die Bildachse zu schieben. Diese Regel wird 180°-Regel genannt. Die Verletzung dieser Regel bezeichnet man als Achsensprung.

Die Bildauflösung ist die Angabe der Größe eines Bildes. Sie lässt sich auf zwei unterschiedlichen Wegen wiedergeben: Entweder als Gesamtanzahl der Pixel (angegeben meist in Megapixel) oder aber in Länge x Breite. Der Begriff „Bildauflösung“ wird jedoch oft für die Bezeichnung der Punktdichte benutzt. Dies kann zu Missverständnissen führen, da die Punktdichte ein eindeutiges Maß für die Qualität des Bildes ist. Mit der Größe eines Videos (oder eines Fotos) kann man die Qualität nicht eindeutig bestimmen, da sie von der Größe des Wiedergabegerätes abhängt. Sieht man sich einen Film mit der Bildgröße 854 x 480 auf einem großen Breitbildfernseher mit den Maßen 1280 x 720 an, so wird die Qualität schlechter sein, als bei einem kleinen Player, der exakt die Maße des Videos hat. Eindeutig bestimmen lässt sich die Qualität also nicht. Prinzipiell aber gilt: Je höher die Auflösung, desto besser wird die Bildqualität.

Die Bildrate oder auch Bildwechselfrequenz beschreibt die Anzahl der Vollbilder, die pro Sekunde übermittelt werden. Für die PAL – Fernsehnorm 576i/25 steht die 25 für 25 Hz, also einer Bildrate von 25 Vollbildern pro Sekunde. Das i steht für Interlaced, einem Zeilensprungverfahren bei dem die 25 Vollbilder in 50 Halbbilder aufgeteilt werden. Die Halbbildfrequenz beträgt also 50 Hz. Im Zeitalter des digitalen Videoschnitts besteht die Möglichkeit Image- und Werbefilme in beliebige Bildraten auszurechnen. Der Standard liegt jedoch bei 25 Hz, da somit eine 100-prozentige Kompatibilität mit etwaigen Playern besteht.

Der Begriff Bin stammt aus dem digitalen Videoschnitt. In einem Schnittsystem bezeichnet man alle Sammelordner, die man z.B. für das Rohmaterial, die Musik oder einzufügende Bilder anlegt, als Bin. Auch Unterordner, die für mehr Struktur innerhalb eines Projekts sorgen, werden als Bin bezeichnet.

Die Blue Screen Technik ist eine Anwendung in der Filmproduktion, bei der ein Bild durch das Ausstanzen einer bestimmten Farbe frei gestellt wird und in einen beliebigen Hintergrund eingesetzt werden kann. Dieser Hintergrund kann sowohl eine reale Filmaufnahme als auch eine computeranimierte Grafik sein. Dazu muss sich die Person lediglich vor einem einfarbigen Hintergrund bewegen. Das Ausstanzen geschieht anschließend im Computer. Der Name Blue Screen bzw. Green Screen bezieht sich auf die Ausstanzfarbe, vor der sich die Objekte befinden, die meist Blau oder Grün ist. Der blaue Farbton wurde ausgewählt, weil er am menschlichen Körper am wenigsten vorkommt. Erst später kam grün als Ausstanzfarbe hinzu. Profis streiten sich darüber, welche der beiden Farben die besseren Ergebnisse erzielen. Für Blau spricht, dass es sich besser als jede andere Farbe vom Hautton des Menschen abhebt. In den meisten modernen Videokameras setzen sich jedoch die Farben eines Bildes aus jeweils einem roten, einem blauen und zwei grünen Bildpunkten (Pixeln) zusammen. Ein Bild hat also zweimal so viel „Grün-Information“, wie rot oder blau. Folglich eignet sich die grüne Farbe (zumindest für Videoaufnahmen) besser als die blaue für den so genannten „Blue Screen“. Angewandt wird diese Technik in Nachrichtensendungen, Kino- und Werbefilmen.

Ein Blur ist ein Effekt, den man benutzt, um Teile eines Bildes oder das gesamte Bild unscharf zu machen. Dies wird zum Beispiel notwendig, wenn Personen gefilmt werden, die eigentlich nicht erkannt werden wollen. Besonders beim Einsatz einer versteckten Kamera müssen Personen unscharf gemacht werden. Auch wenn in einem Film Nummernschilder auftauchen, die deutlich zu erkennen sind, kann es passieren, das man das Schild bluren muss. Bei Image- und Werbefilmen wird in der Regel darauf verzichtet, es sei denn, man benutzt es als ein „künstlerisches“ Stilelement.

Das Breitbildformat ist ein bestimmtes Seitenverhältnis, welches für den Kinobereich in den 50er Jahren entwickelt wurde. Es beschreibt ein Verhältnis von 2,35:1. Im Volksmund werden jedoch fälschlicher Weise alle Bilder, die breiter sind als das herkömmliche 4:3-Format, als Breitbild bezeichnet. Die vertikale Bildebene wird bei einem Breitbildformat normal wiedergegeben, die Horizontale jedoch etwas gestaucht. Dadurch kommt es zu einer leichten, ungleichmäßigen Veränderung.

C

In der Videotechnik spricht man beim Capturing vom Vorgang des Einspielens. Für weitere Informationen: Einspielen

Der Chroma Key ist ein Videoeffekt im Non-Linearen Schnittverfahren, bei dem zwei Bilder miteinander kombiniert werden. Dies geschieht durch ein Stanzsignal in Form einer Farbe, das während des Schnitts herausgestanzt wird und durch ein zweites Bild ersetzt wird. So besteht die Möglichkeit, Personen vor einen anderen Hintergrund zu setzen oder Objekte in eine andere Umgebung zu transportieren. Oft bezeichnet man dieses Verfahren auch als Blue- bzw. Green–Screen–Verfahren, da man die zu stanzenden Objekte oder Personen vor einer grünen, respektive blauen Wand positioniert. Der Chroma Key–Effekt findet meist bei aufwendigen Filmproduktionen seine Anwendung. Meist benutzt man ihn bei Kino-, Werbe- oder Imagefilmen.

Der Begriff Chrominanz bezeichnet ein Signal für die Farbigkeit. In der Filmproduktion ist die Farbigkeit eines Bildes oder einer Sequenz gemeint. Zusammen mit dem Luminanzsignal (Helligkeit) gibt sie Aufschluss darüber, wie farbig ein Bild ist. Im Fernseh- und Videobereich benötigt man zwei Chrominanzsignale und ein Luminanzsignal, um die Farbigkeit zu 100% bestimmen und übertragen zu können. In diesen beiden Signalen sind die Informationen für den Farbton und die Farbsättigung erhalten.

Unter Clipping versteht man das Übersteuern eines Audio- oder Videosignals.

Als Close Up wird die Einstellungsgröße bezeichnet, die so nah dran ist, dass man z.B. von einem Menschen nur den Kopf von Haaransatz bis Kinn sehen würde. In anderer Lektüre findet man diese Einstellungsgröße auch unter der Bezeichnung Großaufnahme. Diese Einstellung wirkt mit einer gewissen Schärfentiefe und der entsprechenden Bildkomposition sehr kunstvoll, weshalb sie sich perfekt für Web-, Werbe- und Imagefilme eignet.

Der Vorgang der Colorierung bezeichnet die farbliche Veränderung eines Bildes in der Post Produktion. Man unterscheidet zwischen zwei verschiedenen Arten der Colorierung. Eine Form der Farbverfremdung findet auf das gesamte Bild statt. Das Ergebnis ist meist ein bestimmter Farbstich. Zum anderen kann man aber auch bestimmte Objekte im Film einzeln verfärben, um einen bestimmten Farbeindruck zu erzielen. Der Grund einer farblichen Verfremdung ist meist künstlerischer Natur. Meist wird eine intensive Colorierung bei Imagefilmen angestrebt, um Farben kräftiger und intensiver zur Geltung kommen zu lassen.

Der Begriff Crawl stammt aus dem englischen Sprachgebrauch und bedeutet übersetzt Kriechtitel. Das ist ein Textfeld, welches horizontal von rechts nach links durch das Bild läuft. Im Regelfall befindet sich der Crawl im unteren Bereich des Bildes, sodass er keine wichtigen Bildinformationen verdeckt. Häufig sieht man einen solchen Kriechtitel auf Nachrichtensendern oder aber bei der aktuellen Börsenübersicht. Aber auch in Webfilmen wird in einigen Fällen ein Crawl benutzt, um in dem Film zusätzliche Informationen unterzubringen.

Der Begriff Cropping stammt aus dem englischen Sprachgebrauch und bedeutet übersetzt „abschneiden“. In diesem Fall ist damit das Abschneiden von Bildrändern gemeint, sodass keine schwarzen Bildränder entstehen. Auf diese Weise verändert man das Format eines Bildes.

D

Die Detailaufnahme ist die Einstellungsgröße, die nur Details von Bildgegenständen wiedergibt. Realisiert wird Sie entweder mit speziellen Objektiven oder mit einem möglichst hohen Zoom. Bezieht man die Detailaufnahme auf eine Person, zeigt man von ihr nicht viel mehr, als ein Finger, ein Auge, oder den Mund. Die Detailaufnahme ist eine der beliebtesten Einstellungsgrößen im Bereich Imagefilm. Richtig eingesetzt werten gezielte Detailaufnahmen den Film in der Bildsprache ungemein auf.

Das Wort Digital stammt aus dem Lateinischen und ist von dem Wort digitus abgeleitet, was Finger bedeutet. Allerdings in der Technik handelt es sich dabei um die diskreten Ziffern, die keine zeitkontinuierlichen Veränderungen haben, wie die Analogen Werte. In diesem Zusammenhang bedeutet Zeitdiskret, dass für eine bestimmte Zeit der digitalwert einen festen Wert darstellt. Im Gegensatz zu den Analogenzahlen können die digitalen Ziffern in allen Zahlensystemen dargestellt werden: im Dezimalsystem ebenso wie im Oktal- oder Dualsystem. „Nach DIN 44300 ist digital eine Darstellungsart von Daten mit den Ziffern eines Zahlensystems, bei der die einzelnen Zeichen voneinander abgrenzbar sind“.

Digital Betacam MAZ-Format, welches auf der Digitaltechnik beruht. Es ist der Nachfolger des Betacam SP-Formates. Die Aufnahme dieses Formates geschieht auf kleine und große Kassetten, die eine Spiellänge von 12 – 124 Minuten besitzen. Mit einer Videodatenrate von ca. 88 MBits/s lassen sich vom Originalband bis zu 10 Kopien anfertigen, ohne dass ein sichtbarer Qualitätsverlust eintritt. Der Ton wird auf bis zu 4 Spuren mit jeweils 20 Bit aufgezeichnet. Das heißt, man kann bis zu 4 Mono- oder 2 Stereospuren aufnehmen. Entwickelt wurde dieses Format von der Firma Sony im Jahr 1993. Einen Nachteil hat das Format Digital Betacam dennoch. Es gibt keinerlei Möglichkeit das einmal datenreduzierte Material direkt wiederzugeben. Man benötigt immer eine Schnittstelle zu einem SDI Signal. Die Aufzeichnung auf eine Festplatte ist damit unmöglich. Trotz dieses Nachteils ist das Format Digital Betacam das Standartformat als Sende- und Austauschband vieler Fernsehsender bzw. Film- und Werbeagenturen und Produktionsfirmen.

Beim Digitalisieren spricht man umgangssprachlich vom Einspielen von Bändern auf Festplatten. Für weitere Informationen: Einspielen

Dolby Digital ist ein Tonsystem, welches mit 5 Lautsprechern und einem Subwoofer ursprünglich für das Kinotonverfahren entwickelt wurde. Wegen der Anzahl der Lautsprecher wird das Verfahren auch als 5.1-Verfahren bezeichnet. Es gibt drei Frontlautsprecher (Links, Center, Rechts) und zwei Surroundlautsprecher, die hinter den Zuschauern angebracht sind.

Dolby Surround ist ein frühes Raumklangverfahren, welches besonders im Consumer-Bereich Anwendung fand. Mittels einer bestimmten Kodierung ist es möglich, in einem normalen Stereosignal 4 verschiedene Kanäle unterzubringen (Links, Rechts, Center und Surroundklang). Das Stereosignal wird dann beim Abspielen wieder in vier Kanäle aufgesplittet. Der Vorteil von Dolby Surround: Das Signal kann auf jedem stereofähigen Übertragungssystem transportiert werden. So ist es möglich, das Verfahren selbst für CD, Radio und VHS zu benutzen. Als dann aber die DVD erschien, die wesentlich mehr Daten und damit das Format Dolby Digital übertragen konnte, verlor Dolby Surround an Bedeutung. Lediglich bei den Medien, deren Beschaffenheit es nicht zulässt Dolby Digital zu übertragen (z.B. CD), findet Dolby Surround heute noch Anwendung.

Ein Dolly ist ein Transportwagen, mit dem sich besonders ruhige und saubere Kamerafahrten realisieren lassen. Ein Dolly trägt die Kamera, den Kameramann und den Kameraassistenten. Bewegt wird er auf einem geeigneten Untergrund. Bei einem Dolly mit Gummirädern muss der Untergrund glatt sein, da sich sonst das Ruckeln des Kamerawagens auf die Kamera und schließlich auf das Bild überträgt. Andere Dollys fahren auf Schienen, wodurch sie vom Untergrund so gut wie unabhängig sind.

Jeder gute Film ist wohl nur so gut, wie seine Grundlage, nämlich das Drehbuch. Alles was die Kamera „sieht“, ist hier nieder geschrieben. Es ist wie ein Konzept, das alle am Set beteiligten Menschen leitet und beinhaltet Szenenbeschreibungen, Dialoge und Regieanweisungen. Meist werden auch technische Elemente mit einbezogen, wie z.B. bestimmte Kameraeinstellungen. Die Anfertigung eines Drehbuches ist in der Regel sehr aufwendig und durchläuft Phasen wie z.B. das Exposé, welches nur einer von mehreren Erstellungschritten ist, den Kern der Geschichte enthält, inklusive der Hauptfiguren etc. und eine bis hunderte Din A4 Seiten umfasst. Je nach dem um was für einen Film es geht, weichen die verschiedenen Formen eines Drehbuchs voneinander ab. Auch in der Länge gibt es natürlich Unterschiede. Für große Spielfilme, werden für das Drehbuch spezielle Autoren engagiert, bei einem kleinen Werbespot fertigt der Redakteur/ Regisseur ein vergleichsweise kurzes Konzept über wenige Seiten an.

Das Drei Punkt Licht ist ein Lichtsetzungsschema bei dem ein Führungs-, Füll- und Effektlicht verwendet wird. Das Führungslicht ist die Lichtquelle die vom Zuschauer wahrgenommen wird, es dient zur Hauptbeleuchtung des Objektes. Es kann je nach Szenensituation diffus oder gerichtet sein, jedoch darf es als einziges einen sichtbaren Schatten hinterlassen. Meist kommt es aus der Nähe der Kamera. Das Fülllicht dient zur Aufhellung und Detailverstärkung. So wird es verwendet um, durch das Führungslicht, entstandene Schatten aufzuhellen und den Kontrastumfang zu senken. Das Fülllicht ist meist diffus, um keine neuen Schatten entstehen zu lassen. Das Effektlicht dient zur Trennung der Ebenen im Bild. So wird ein hartes von hinten eintreffendes Licht genutzt um eine Lichtkante, z.B am Kopf des Objektes, zu erzeugen. Durch diese Kante entsteht eine klarere Trennung vom Hintergrund und mehr Tiefe im Bild.

Der Dreipunktschnitt kennzeichnet eine besondere Schnitttechnik im Non-Linearen Schnittverfahren. Mit dieser Technik können Lücken eines Filmes nahtlos geschlossen werden, ohne dass man die Positionen einzelner Bilder noch mal verändern muss. Dazu wird die besagte Lücke in der Timeline mit einem In- und einem Outpunkt versehen. Anschließend setzt man im Rohmaterial entweder einen Inpunkt an der Stelle, wo das Bild beginnen, oder einen Outpunkt an der Stelle, wo es enden soll. Fügt man dann das Material ein, berechnet das Schnittsystem die Größe der Lücke und füllt sie mit dem markierten Material auf.

DVCAM ist ein digitales Videoformat, das von der Firma Sony entwickelt wurde. Es ist die professionellere Variante zum hausgebräuchlichen DV-Format, womit die meisten Consumer – Camcorder arbeiten. Der Unterschied zwischen den beiden Formaten liegt jedoch in der größeren Spurbreite eines Bandes und in der schnelleren Abspielgeschwindigkeit eines DVCAM-Bandes. Daraus entsteht zwar eine geringere Bandlaufzeit, aber auch eine geringere Fehlerquote, da die gleiche Information auf mehr Band gespeichert wird. Das Prinzip ist jedoch dasselbe. Als Band wird wie bei einem normalen DV-Band bedampftes Metallband genutzt.

E

Der EB-Mischer ist ein kleines, tragbares Mischpult, welches bei der elektronischen Berichterstattung zum Einsatz kommt. In einem EB-Mischer können bis zu vier Mikrofonsignale getrennt voneinander abgemischt werden. Im Ausgang stehen zwei getrennte Signale zur Verfügung, die an die Kamera übertragen werden können. So können zum Beispiel zwei verschiedene Personen mit Ansteckmikrofonen getrennt von einander aufgenommen werden. Das erleichtert die spätere Tonmischung im Schnitt. An den meisten EB-Mischern kann neben dem Pegel und der Verstärkung (Gain) des Tons, auch ein Rauschfilter eingeschaltet werden. Auch ein Limiter, der vor unerwünschtem Clipping schützt, kann an den meisten Modellen mit zugeschaltet werden. Die Kontrolle des Tons erfolgt vom Tonmann über Kopfhörer. Der EB-Mischer kommt neben der Produktion für Fernsehsendungen auch im Bereich Filmproduktion für Image, Werbe-, Web- und Industriefilme zum Einsatz.

EB ist die Abkürzung für Electronic Broadcasting (elektronische Berichterstattung). Ein EB-Team ist die Standartbesetzung bei einem Dreh. Diese Besetzung besteht aus einem Kameramann und einem Tonmann. Meist arbeitet das EB-Team mit einem Redakteur oder einem Journalisten zusammen. Ein EB-Team wird nicht nur in der Berichterstattung im Fernsehen eingesetzt. Auch bei Image-, Werbe- oder Industriefilmen kommt die Dreierkombination aus Redakteur, Kameramann und Tonmann zum Einsatz. Der Begriff EB-Team wird bereits seit den 80er Jahren verwendet.

Um einen bestimmten bildlichen Eindruck zu erschaffen gibt es die verschiedensten Effektfilter, die vor das Objektiv angebracht werden können. Elementar für die Benutzung eines solchen Effektfilters ist aber genügend Licht, da die meisten Filter eine Menge Licht schlucken. Mit diesen Effektfiltern können unterschiedlichste Effekte erzielt werden. Sie eignen sich hervorragend für Image- und Werbefilme. Z.B. gibt es Filter, die von einer Lichtquelle oder einer Reflektion Strahlen ausgehen lassen, sodass die Lichtquelle nach einem Stern aussieht (Starlightfilter). Außerdem gibt es Verlaufsfilter in diversen Farben, Prismenfilter oder sog. Fog-Filter, die das Bild etwas verschwimmen lassen und so einen Nebeleffekt entstehen lassen. Der Kreativität sind an dieser Stelle keine Grenzen gesetzt.

Effektfolien sind farbige Folien, die vor Scheinwerfer angebracht werden und das etwas gelbliche Kunstlicht des Scheinwerfers in eine andere Farbe ändern. Je nach Hersteller gibt es die verschiedensten Farben und Stärken. Sie kommen in beinahe allen Filmproduktionen zur Anwendung, bei dem ein künstlerischer Aspekt gewünscht oder gefordert ist. Deshalb werden sie besonders gern bei Imagefilmen benutzt, da in diesen Filmen eine schöne Lichtstimmung von besonderer Bedeutung ist. Eine Besonderheit der Effektfolien sind sog. Taglichtfolien und ND-Folien.

High-Key und Low-Key sind zwei Bezeichnungen die auf die Effektlicht-Gestaltung abzielen. So wird bei High-Key weiches diffuses Licht mit leichter Überbelichtung verwendet, um das gewünschte Objekt sanft und lieblich darzustellen. Oft wird dieses Effekt-Licht für Portraits oder Landschaftsaufnahmen verwendet. Low-Key-Aufnahmen zeichnen sich durch vorwiegend schwarze und dunkelgraue Tonwerte aus. Dies wird durch hartes gerichtetes Licht erzielt, welches extreme Schatten und scharfe Kontraste erzeugt. Es entsteht eine dramatische Wirkung im Bild was als gestalterisches Mittel oft für Verhörszenen verwendet wird.

Einleuchten ist ein Begriff aus der Beleuchtungstechnik und beschreibt den Vorgang der Einstellung einzelner Scheinwerfer. Dabei steht zur Frage, aus welcher Richtung das Licht fällt, wie hell die Scheinwerfer eingestellt werden und ob eventuell besondere Effektscheinwerfer oder Effektfolien zur Anwendung kommen. Eine Situation muss zum Beispiel immer vor Interviews eingeleuchtet werden. Der Beleuchtungsmeister arbeitet in dieser Phase sehr eng mit Redakteur und Kameramann zusammen. Falls nur ein EB-Team am Drehort ist, übernimmt der Kameramann in Zusammenhang mit dem EB-Assistenten die Aufgabe des Einleuchtens.

Als Einspielen wird der Vorgang des Übertragens von Rohmaterial in ein nichtlineares Schnittsystem und/ oder eine Festplatte bezeichnet. Dabei kann das Material entweder von einem Magnetband, einer Compact Flash-Karte oder einem anderen Speichermedium einer Kamera kommen. Meist ist jedoch die Echtzeitbandübertragung über eine SDI – Verbindung gemeint.

Die Einstellungsgröße ist ein Sammelbegriff aus dem Bereich Bildkomposition innerhalb einer Filmproduktion. Sie gibt an, wie groß ein Bildgegenstand gezeigt wird. Es gibt die Einstellungsgrößen: Supertotale, Totale, Halbtotale, Amerikanisch, Halbnah, Nah, Groß, Detail. Eine hundertprozentige Beschreibung gibt es jedoch nicht. Die Einstellungsgrößen richten sich jeweils nach dem Kontext des Bildes.

Als Teil vom Eventmarketing, nutzen einige Firmen Veranstaltungen, um ihrem Namen mehr Bekanntheit zu verleihen, um Geschäftsbeziehungen (wieder-)aufleben zu lassen oder dem Firmenimage mehr Ausdruck zu verleihen. Um allen geladenen Gästen dann auch noch die positiven Erinnerungen an das Ereignis dauerhaft mit auf den Weg zu geben, entscheiden sich viele für ein Eventvideo. Dieses kann entweder eine harmonische Zusammenstellung der Eventimpressionen enthalten oder ein schöner Mitschnitt des Events sein. Auch für Kunden, die nicht teilnehmen konnten, ist es nett zu sehen, was sie bei einer der nächsten Veranstaltungen erwarten könnte.

Im Bereich der Filmproduktion ist das Exposé ein Schriftstück, in dem der ungefähre Ablauf einer Handlung eines Films wiedergegeben wird. Im Exposé stehen Protagonisten, die an dem Dreh teilnehmen, sowie Handlungsorte und einzelne Handlungsstränge. Auch die Aussage des Films wird in einem Exposé festgehalten. Es bildet die Grundlage, nach der ein Film erstellt wird. Ein Drehbuch wird lediglich im Kinobereich gebraucht, da in Kinofilmen sämtliche Dialoge ausgearbeitet werden müssen, was in der Produktion eines Image- oder Industriefilms eher weniger von Nöten ist.

F

In den meisten Schnittsystemen besteht die Möglichkeit Farbe, Helligkeit und Kontrast beliebig zu verändern. Dies wird als Farbkorrektur bezeichnet. Mit der Farbkorrektur kann man zwei unterschiedliche Effekte erzielen. Auf einer Seite kann man Farben wieder so verändern, dassie das Original so gut wie möglich wiedergeben. Dies wird zum Beispiel nötig, wenn am Drehort eine ungünstige Lichtstimmung herrscht, die Umgebungsfarben verfälscht oder der Kameramann den Weißabgleich nicht macht. Mit der Farbkorrektur kann man aber auch Farben bewusst in einen anderen Bereich drücken, um dem Bild die gewünschte Wirkung zu geben.

Unter einem Farbstich versteht man die Verschiebung einzelner Farbwerte in eine bestimmte andere Farbnuance. Dies kann unbeabsichtigt passieren, z.B. wenn der Kameramann vergisst den Weißabgleich an der Kamera einzustellen. Es kann aber auch gewollt sein, um durch die Farbwirkung eine bestimmte Stimmung auf den Zuschauer zu bewirken. So erzeugt ein leichter Rot/Orangestich im Bild das Gefühl von Wärme und Geborgenheit. Der Zuschauer assoziiert automatisch positive Gedanken und fühlt sich beim Betrachten des Bildes wohl. Die entgegengesetzte Wirkung erzielt man bei einem leichten Blaustich. Besonders bei Imagefilmen greift man gelegentlich auf einen leichten Farbstich zurück, um die oben beschriebenen Gefühle beim Zuschauer auszulösen.

Vergleicht man Tageslicht mit Kunstlicht, so stellt man sehr schnell fest, dass Kunstlicht mehr Rotanteile und Tageslicht mehr Blauanteile besitzt. Diese Wahrnehmung bezeichnet man als Farbtemperatur des Lichts. Die Farbtemperatur wird in Kelvin angegeben und steigt, je mehr Blauanteile sich im Licht befinden. So hat Kunstlicht eine Farbtemperatur von ca. 3200 K. Im Vergleich dazu besitzt Tageslicht eine Farbtemperatur von 5600K. Dies muss vor jeder Aufnahme berücksichtigt werden, da die meisten hochwertigen Kameras auf eine spezielle Farbtemperatur eingestellt werden müssen. Dies wird mittels eines Weißabgleichs realisiert. Vergisst der Kameramann diesen Schritt, dreht er mit einer falschen Farbtemperatur und erzeugt somit einen Farbstich. Zwar kann man das in der Postproduktion bis zu einer gewissen Grenze mittels Farbkorrektur reparieren, es kann aber auch dazu kommen, dass sich bei der Farbkorrektur andere Farben mit verändern und damit die Aufnahme nicht zu retten ist.

Im Feinschnitt wird jeder einzelne Schnitt, jeder Übergang genauestens geprüft und festgelegt. Des Weiteren werden im Feinschnitt Überlegungen gesetzt und der Ton gepegelt, Der Feinschnitt erfolgt nach dem im Rohschnitt die Reihenfolge der Szenen und Einstellungen sowie die Grundstruktur der Geschichte festgelegt wurde.

Wie der Name schon verrät handelt es sich um Kameras, die auf eine Festplatte aufzeichnen. Der Vorteil solcher Kameras liegt in der anschließenden Verarbeitung des Materials. So umgeht man zum Beispiel mit einer Festplattenkamera lange Einspielzeiten. Das Material von der Festplatte muss in aller Regel nur kopiert werden und kann dann sofort im entsprechenden Schnittsystem weiter verarbeitet werden. Ein Band wird meist in Echtzeit eingespielt. Wenn man das Material auch auf Festplatte archivieren will, braucht man es nur auf die entsprechende Platte zu kopieren. Eine Bandarchivierung hat zur Folge, dass man jedes einzelne Band wieder ausspielen muss. Der Zeiteffekt den man also beim Einspielen gewonnen hat, geht beim Ausspielen wieder verloren.

Fingerkameras sind kleine DV-Kameras, die zwar von der Bildqualität eingeschränkt sind, sich aber aufgrund ihrer Größe hervorragend für den versteckten Einsatz eignen. Sie senden das Signal entweder drahtgebunden oder aber auch drahtlos zu einem Empfänger, in dem sich der Recorder mit dem Band oder der Festplatte befindet. Die meisten Fingerkameras können jedoch nur im Format 4:3 aufnehmen, was mitunter ein Problem nach sich ziehen kann. Produziert man den Film im Format 16:9 muss man das ohnehin schon mittelmäßige Material auf ein 16:9-Format aufziehen, wodurch das Bild nochmals schlechter wird.

Flash ist das Kurzwort für das sogenannte Flash-Video. Das ist ein Containerformat, welches von der Firma Adobe Systems entwickelt wurde. Es wurde konzipiert, um Videoinhalte über das Internet zu transportieren (sog. Web-Videos). Der Vorteil von Flash liegt in seiner Kompaktheit, was die Datenmenge angeht. Es bietet ein sehr gutes Daten – Größenverhältnis, was den Container für das Internetstreaming prädestiniert. Der Nachteil von Flash ist, dass es eher für kleinere Online – Filme hergestellt wurde. Bei Videos mit einer größeren Datenmenge kann es schnell zu Bild- & Tonversatz kommen.

Der Begriff Full HD wird meist im Fernsehbereich verwendet und bezeichnet die höchste HD Auflösung (1920 x 1080), die man im Consumerbereich bekommen kann. Full HD sollte auf keinen Fall mit dem verwandten Begriff HD ready verwechselt werden, da dieser schon bei einem Zeilenverhältnis von 1280 x 720 verwendet wird. Der Unterschied zwischen diesen beiden Auflösungen und der herkömmlichen SD – Auflösung liegt in der Anzahl der Bildpunkte. Bei einem SD – Bild spricht man von knapp 590 000 Pixeln, bei einem Bild mit der Eigenschaft HD ready sind es schon ca. 1 Million mehr, beim Full HD existieren schon 2 Millionen Pixel mehr als beim SD und das bei gleichbleibendem Seitenverhältnis. Die Folge sind detailreichere Bilder.

Ein Funkmikrofon (auch Ansteckmikrofon) besteht aus zwei Einheiten: Einer Sende- und einer Empfangseinheit. An dem Sender ist ein kleines Kugelmikrofon angebracht, welches sich meist in unmittelbarer Nähe zur Person befindet, deren Ton aufgenommen werden soll. In der Regel wird das Mikrofon am Jackett, Kragen oder einer ähnlichen Stelle nahe dem Mund des Sprechers angebracht. Ein kleines Kabel wird verdeckt am Körper verlegt, damit der Zuschauer nur das eigentliche Mikrofon sieht. Der Sender wird in einer Hosentasche oder am Gürtel versteckt. Die Empfangseinheit befindet sich hingegen beim Tonmann, der das Signal weiter in den tragbaren Mischer leitet, wovon es anschließend direkt in die Kamera geht. Der Vorteil eines Ansteckmikrofons liegt in der Nähe zum Sprecher. Der Ton ist um ein Vielfaches sauberer, da man nur sehr wenig Umgebungsgeräusche mit aufnimmt. Außerdem umgeht man das Risiko, dass eine Tonangel die in das Bild ragt, die Aufnahme unbrauchbar macht.

G

Gaffer Tape ist ein, durch Leinen verstärktes, Klebeband. Es wird selbst bei der kleinsten Filmproduktion zur Befestigung oder provisorischen Montage verwendet. Man kann es mit bloßer Hand von der Rolle reißen ohne befürchten zu müssen, dass es ineinander verklebt. Die Klebkraft eines Gaffer Tapes hingegen ist enorm. Das Wort Gaffer Tape ist aus dem englischen „Gaffer’s Tape“ (Gaffer – Beleuchtungsmeister) abgeleitet.

Übersetzt bedeutet Gain Verstärker. Man unterscheidet zwischen einem Videogain und einem Audiogain. Bei einem Videogain kann man Bilder mit einem zu niedrigen Videopegel (zu dunkel) anheben, sodass die Bildgegenstände klarer zu erkennen sind. Die Verstärkung kann man an vielen elektronischen Kameras zuschalten. Leider steigt mit dem Gain auch der Rauschanteil im Bild, weshalb diese Verstärkung mit Vorsicht zu genießen ist. Besser ist es, anstatt des Gains ein Kopflicht zu benutzen. Ein Audiogain wird meist an allen Mischpulten und EB-Mischern verwendet. Er verstärkt das Eingangsaudiosignal vom Mikrofon und bringt es auf einen Arbeitspegel.

Gegenlicht ist ein Begriff aus der Filmproduktion, der eine Lichtquelle bezeichnet, die direkt in Richtung des Objektivs einer Kamera fällt. Besonders im Bereich Image-, Werbe- und Webfilm spielt Gegenlicht eine große Rolle, da es entgegen der üblichen Meinung, nicht immer unerwünscht ist. Genau so gut kann das Gegenlicht als künstlerisches Mittel eingesetzt werden um ein Bild optisch aufzuwerten. Eine Aufnahme bei Gegenlicht ist jedoch nicht immer ganz einfach. Oft werden Reflexionen innerhalb des Objektivs (sog. Lens-Flares) mit aufgezeichnet, die dann wiederum störend wirken. Außerdem können Teile des Bildes zu dunkel erscheinen, wenn man den Hintergrund mit der Lichtquelle korrekt belichtet. Automatische Belichtungsprogramme in Kameras sind für eine Gegenlichtaufnahme ebenfalls ungeeignet, da sie sich meist auf den hellsten Lichtpunkt beziehen und dadurch alle anderen Bildelemente abdunkeln. Damit eine Gegenlichtaufnahme gelingt sollte man alle Filter, die vor die Linse geschraubt sind, abnehmen und stattdessen eine Gegenlichtblende aufsetzen. Auch der Einsatz durch zusätzliches Licht von vorn kann hilfreich sein, da Bildbereiche, die durch die korrekte Belichtung des Hintergrundes zu dunkel erscheinen, damit wieder aufgehellt werden können.

Die Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (kurz GEMA) vertritt Urheber- und Nutzungsrechte von Komponisten und Musikern, die Mitglied sind. Bei jedem Erwerb von GEMA-pflichtiger Musik muss man dann einen Beitrag an die GEMA bezahlen, die dann wiederum einen gewissen Prozentsatz an die Künstler weiterreichen. Jedoch nicht nur bei Erwerb der Musik aus dem sog. „Weltrepertoire“ muss eine Gebühr bezahlt werden, sondern auch bei der Ausstrahlung eines Songs im Fernsehen, im Internet oder in einem öffentlich zugänglichen Raum wird eine solche Gebühr fällig. Deshalb ist eine der ersten Fragen bei einer Filmproduktion, wo der Film gezeigt wird und ob GEMA-pflichtige Musik verwendet werden kann. Andernfalls muss man auf GEMA-freie Musik zurückgreifen, die jedoch in aller Regel dem Zuschauer unbekannt ist und einen geringeren Wiedererkennungswert besitzt.

Der Goldene Schnitt ist ein Verhältnis zweier Zahlen, Größen und Entfernungen zueinander. Dieses Verhältnis wird als besonders ästhetisch vom Auge des Menschen wahrgenommen. Es findet nicht nur Anwendung in der Videogestaltung, sondern z.B. auch in der Kunst, der Architektur oder in der Fotografie. Das Verhältnis des Goldenen Schnittes ist in Etwa ein drittel zu zwei drittel. Auf die gedachte Linie wird an dieser Stelle ein Objekt ausgerichtet, auf welches der Blick des Zuschauers gelenkt werden soll. Oder es werden Interviewsituationen nach diesem Prinzip eingestellt.

Grain ist ein anderer Begriff für das Filmkorn. Es entsteht beim Entwickeln eines Films. Je kleiner das Filmkorn ist, desto größer ist die Auflösung des Films. Es wird bei starker Vergrößerung des Materials als Bildrauschen sichtbar. In Filmproduktionen, bei denen man auf Filmrollen verzichtet und eher auf Kassetten oder Festplatten zurückgreift, hat man mit graining jedoch kein Problem. Es gibt jedoch auch digitale Effekte, die ein künstliches Graining erstellen, um bspw. einen alten Filmlook zu imitieren.

Bei der Großaufnahme werden Teile des Bildgegenstandes abgebildet. Bei einer Person gibt eine Großaufnahme bspw. nur den Kopf und eventuell einen kleinen Teil des Schulterbereiches wieder. Mützen und Hüte werden bildlich „abgeschnitten“. Eine solche Einstellungsgröße rückt die Mimik der Person enorm in den Vordergrund.

Eine Gummispinne ist eine Vorrichtung, die an den Füßen eines Stativs angebracht ist, und das Auseinanderrutschen der Stativbeine verhindert.

H

Ein Fernsehbild ist in Zeilen nach dem sog. Zeilensprungverfahren aufgebaut. Ein Halbbild bildet die Hälfte der Zeilen eines Vollbildes, die an das Fernsehgerät übertragen werden. Diese werden natürlich auch in der Hälfte der Zeit eines Vollbildes abgespielt. Dadurch ergibt sich eine höhere Bewegungsschärfe. Leider ist diese Technik nur im Zusammenhang mit Fernsehgeräten möglich. Aufgrund baulicher Unterschiede können Computermonitore keine Halbbilder wiedergeben. Spielt man einen Film mit 50 Halbbildern/Sekunde auf einem Computer ab, so werden bei Bewegungen die fehlenden Zeilen sichtbar. An dieser Stelle muss man das Videosignal interpolieren.

Die Einstellungsgröße Halbnah entspricht am ehesten der natürlichen Sehsituation. Eine Person würde bei einer solchen Einstellung vom Kopf bis etwa unter den Brustkorb gezeigt werden. Aufgrund der natürlichen Wirkung auf den Zuschauer wird diese Einstellungsgröße häufig für Dialogsituationen verwendet.

Die Einstellungsgröße Halbtotale zeigt die vorhandenen Bildgegenstände komplett. Dabei kommt es nicht auf die Umgebung an, sondern nur um die Bildgegenstände an sich. Personen werden also von Kopf bis Fuß dargestellt. Meist ist in Bildern mit halbtotaler Einstellung die Körpersprache wichtiger, als der Dialog oder die Mimik.

High Definition- heißt nichts anderes als Hochauflösend. HD ist DER neue Fernsehstandard (Stand 2010) und punktet mit der weitaus besseren Bildqualität, als das PAL-System. In Zahlen drückt es sich so aus, dass das PAL-System eine Auflösung von 720 mal 576 Bildpunkten hat und HD mit einer Auflösung von bis zu maximal 1920 mal 1080 Pixel aufwarten kann. Zur Zeit ist es der höchste technische Standard im Bereich Video und somit sind auch nur aktuellere TV-Geräte in der Lage HD darzustellen und gelten dann als „HD-Ready“. Als Nachfolger und scheinbar Konkurrent zum Digital-Video-Standard, schaffte es das abwärtskompatible Format die Neuproduktion von älteren Formaten nahezu einzustellen.

HDTV steht für High Definition Television und ist eine internationale Fernsehnorm, die im Vergleich zum bisherigen Standart SDTV (Standart Definition Television) mehr Zeilen und somit eine wesentlich höhere Pixelauflösung vorweisen kann. Man sollte es nicht mit dem Seitenverhältnis verwechseln. Sowohl beim SDTV als auch beim HDTV ist das Format 16:9 das Standardseitenverhältnis. Dies wird gewährleistet, weil die Bildpunkte (auch Pixel) beim HDTV sehr viel kleiner sind als beim SDTV. Die Zeilen die man dadurch spart werden hinzugefügt, sodass das Seitenverhältnis gleich bleibt. Bleibt man bei 720 Gesamtzeilen hat man ca. 1 Million Bildpunkte hinzugewonnen. Geht man auf 1080 Zeilen und dem damit verbundenen Standart von Full HD, bekommt man ca. 2 Millionen zusätzlicher Pixel. Das bedeutet, es sind im selben Bild mehr Bildpunkte vorhanden, welche zu einem höheren Detailreichtum führen. Auf diese Weise schafft HDTV einen kinoähnlichen Gesamteindruck vom Bild.

HDV steht für High Definition Video und beschreibt einen Amateur-Viedeo-Codec für HDTV. Außerdem ist es ein MAZ – Format mit dem viele Kameras bereits ausgestattet sind. Dabei muss unterschieden werden zwischen HDV1 und HDV2, da HDV1 mit 720 Zeilen und HDV2 mit 1080 Zeilen arbeitet. Die meisten Consumerkameras sind jedoch nur mit HDV1 ausgestattet. HDV-Aufnahmen können ganz normal mit Mini DV – Kassetten realisiert werden. Lediglich beim Einspielen ist Achtung geboten, da nicht jeder Einspieler HDV auslesen kann. Spielt man jedoch mit der HDV – Kamera ein, mit der man das Material gefilmt hat, oder mit einem speziellen HDV – Einspieler, hat man keinerlei Probleme, sondern ein qualitativ hochwertigeres Bild als bei einer DV – Kamera.

Alle Kameras im PAL-Fernsehformat nehmen in einer Sekunde 25 Bilder auf. Alle Bilder in Echtzeit abgespielt, ergibt einen flüssig laufenden Film. Mit einer High-Speed Kamera hingegen kann man von 60 bis zu mehreren Millionen Einzelbildern pro Sekunde aufnehmen. Auf diese Weise kann man eine Sekunde Originalzeit auf mehrere Minuten Filmzeit strecken. Dies ist besonders nützlich wenn man ein Ereignis filmt, welches sehr schnell von statten geht. Deswegen werden oft in Schulungsfilmen, bei dem ein Ereignis genau gezeigt und analysiert wird, auf High – Speed Aufnahmen zurückgegriffen. Aufgezeichnet wird das Material in der Regel auf Festplatten oder Speicherkarten. Ein besonderer Aspekt bei der Verwendung einer High-Speed Kamera ist die Belichtung. Da eine solche Hochgeschwindigkeitskamera nur eine sehr kurze Belichtungszeit hat (die im Mikrosekunden-Bereich liegt), benötigt man eine starke Lichtquelle, um ein ausreichend ausgeleuchtetes Bild zu garantieren. Ist dies aber gewährleistet, so sind die Bilder meist sehr eindrucksvoll und werten jeden Film enorm auf.

Um zu überprüfen, ob der aufgenommene Ton in Ordnung ist, hört der Tonmann bzw. der EB–Assistent über Kopfhörer mit. An den meisten tragbaren Mischpulten bestehen zwei Möglichkeiten des Mithörens. Zum einen kann man das direkte Mikrofonsignal abhören, zum anderen kann man das Signal hinter dem Band abfangen und abhören. Diesen Vorgang bezeichnet man als Hinterbandkontrolle. Dazu muss ein zusätzliches Kabel zwischen Kamera und Mischer angebracht werden, welches das Signal wieder zurückleitet. Diese Art der Kontrolle ist die Zuverlässigere und Bessere, da man sich sicher sein kann, dass eventuelle Störgeräusche zwischen Mischer und Kamera auch bei der Hinterbandkontrolle zu hören wären.

I

Viele Unternehmen entdecken die Präsentationsform Imagevideo für sich. Der Hauptgrund für einen Imagefilm ist meist die präzise Darstellungsmöglichkeit für Produkte oder Dienstleistungen. Ferner entspricht es dem eigentlichen Namen- nämlich der Aufbesserung oder Auffrischung des Images eines Unternehmens. Dadurch, dass Imagefilme bis zu 10mal so lang wie Werbespots sein können, bieten Sie genug Raum um alle wichtigen Vorzüge, Verwendungszwecke und andere nützliche Gesichtspunkte des Produktes unterzubringen. Bei der Produktion bzw. der Idee für ein Imagevideo, kann man der Phantasie freien Lauf lassen. Gefallen muss es – das ist die Hauptsache. Auch der Einsatz des Films ist durchaus variabel. Gerne werden Imagefilme auf Messen verwendet, direkt in den Verkaufsräumen oder auch sehr häufig auf der Firmenhomepage.

IMX bezeichnet einen digitalen MAZ- und Videocodec im Bereich des SDTV und der Filmproduktion. Es wurde 1999 von der Firma Sony entwickelt und war als Nachfolger von Digital Betacam gedacht. Mit einem IMX-Codec wird das unkomprimierte Rohmaterial als digitales Komponentensignal mit einer Datenrate von 50 MBit/sec komprimiert. Bei dieser Kompression wird jedes Einzelbild für sich komprimiert. Dadurch bleibt das Material komplett schnittfähig. Der größte Vorteil des IMX-Codecs ist der Speicherplatz den man, bei vernachlässigbarem Qualitätsverlust, mit diesem Codec spart. Die Abkürzung „IMX“ steht für „Interoperability Multiformat Exchange“. In einigen Nachschlagewerken wird hierfür auch der Begriff „D10“ verwendet. Der IMX-Codec entspricht heute in vielen Fernsehanstalten (meist öffentlich-rechtlich) dem Sendestandard.

Der erste deutsche Industriefilm entstand 1912 und zeigte die Deutsche Reichspost, die damit ihre Arbeit und den gesamten Betrieb der Öffentlichkeit unterbreiten wollte. Auch waren es damals nur große, in der Wirtschaft fest etablierte Unternehmen, die sich ein Industrievideo leisten konnten. Deshalb hieß er auch lange Zeit Wirtschaftsfilm, doch der Begriff „Industriefilm“, hat sich nahezu weltweit etabliert. Er dient dazu Einblicke in Berufsbereiche zu gewähren, die meist technischer Natur sind. Oft wird zunächst die Branche und das Unternehmen vorgestellt, dann Produktionsabläufe und Prozesse o.ä.. Eine eindeutige Definition für den Industriefilm gibt es nicht, denn der Schwerpunkt kann bei verschiedenen Themen liegen. Es kann um allgemeine Industriebranchentypische Informationen gehen oder um die Ausbildung in einem bestimmten Beruf, um die Gefahrenpräventionen beim Arbeiten, um die Produktivität einer Firma und ähnlichen Themen rund um ein Unternehmen. Wichtig und kennzeichnend ist, dass ein Industrievideo davon lebt authentisch, sachlich und präzise zu sein und die Informationen logisch und nachvollziehbar an die Zielgruppe weitergibt.

Der Begriff „Inpunkt“ stammt aus der Postproduktion. Er bezeichnet den Anfangspunkt eines Einzelclips in einem Schnittsystem.

Als Insert wird jede Einblendung in einem Film bezeichnet, unabhängig davon, ob es sich um einen Image-, Werbe- oder Webfilm handelt. Meist handelt es sich hierbei um Schrifteinblendungen oder ganze Schrifttafeln (z.B. Bauchbinden). Der Begriff ist jedoch nicht zu verwechseln mit dem Insert-Schnitt.

Der Insert-Schnitt ist ein Begriff aus der linearen Schnitttechnik. Er beschreibt den Ersatz eines Clips durch einen Anderen. Auf diese Weise können Sequenzen ausgetauscht werden. Dies geschieht framegenau und ohne jegliche Störung. Ein Insert-Schnitt funktioniert jedoch nur, wenn das Band vorcodiert, also ein Timecode auf dem Band vorhanden ist.

Interlace ist die Bezeichnung für das Zeilensprungverfahren in Fernsehgeräten. Für weitere Informationen: Zeilensprungverfahren.

Zunächst beschreibt die Interpolation das Ergänzen von neuen Daten aus Teilen der alten, vorhandenen Daten. Im engeren Sinne ist damit das Ergänzen von Bildpunkten gemeint, was in den verschiedensten Situationen notwendig werden kann. Beispielsweise wird Interpolation im Bereich der Datenreduktion im MPEG-Verfahren angewandt. Dabei werden nicht alle Bilder komplett übertragen. Fehlende Informationen werden aus dem Bild davor und danach ergänzt. Außerdem wird Interpolation beim Vergrößern einer Pixelgrafik angewandt, da ein größeres Bild mehr Pixel aufweist und diese aus den umliegenden Bildpunkten berechnet werden. Auch wenn ein Video mit 50 Halbbildern für das Internet ausgerechnet wird, muss interpoliert werden, da man sonst bei Bewegungen die fehlenden Zeilen des zweiten Halbbildes sieht.

Ein Intro ist eine kurze, wiederkehrende Filmsequenz, die meist bei einer Serie im Bereich Fernsehen oder Webvideo eingesetzt wird. Diese kurze Sequenz wird als Einleitung vor den eigentlichen Film gesetzt und dient dem Wiedererkennungswert. Ein Intro wird oftmals auch als Vorspann bezeichnet.

J

Ein Jog/Shuttle ist ein Bedienelement an einer MAZ oder einem DVD-Player. Es besteht aus einem Jog Dial und einem Shuttle-Ring. Beim Drehen des Jog Dials kann Frame für Frame vorgespult werden. Mit einem Shuttle-Ring kann hingegen (je nachdem wie weit der Ring gedreht wird) unterschiedlich schnell vor- und zurückgespult werden. Oftmals sind beide Elemente in einem Ring integriert, sodass durch das Drücken des Rings die Funktion umgeschaltet werden kann.

JPEG ist die Abkürzung für Joint Photographic Expert Group. Dieses Unternehmen befasst sich mit Verfahren zur Datenreduktion. Nach dieser Gruppe ist das Bildformat JPEG bezeichnet. Dieses Grafikformat heißt eigentlich JPEG File Interchange Format (JFIF), doch der Volksmund benutzt heute nur noch JPEG. Diese Form der Bildkompression bietet verschiedene Kodierungsmöglichkeiten an. Dabei existieren sowohl verlustbehaftete, als auch verlustfreie Kodierungen. Die Quantisierung eines JPEG-Bildes verläuft meist nach dem 8-Bit bzw. dem 12-Bit-Verfahren. Es wird demnach nicht jeder Einzelpunkt berechnet, sondern mehrere gleichgroße Quadrate aus Pixeln. Diese Quadrate sind 8×8 (bzw. 12×12) Pixel groß. Da weniger Informationen gespeichert werden, wird Platz auf der Festplatte gespart. Beim näheren Betrachten des Gesamtbildes werden diese Quadrate jedoch sichtbar. Ein verlustfreies, digitales Vergrößern eines jpeg-komprimierten Bildes ist daher nicht möglich. Auch von einer erneuten Kompression eines Jpeg-Bildes ist abzuraten, da die Qualität stark abnimmt.

Als Jump Cut wird ein Filmschnitt bezeichnet, bei dem ein Bildübergang nicht harmonisch wirkt, sondern eher als „Sprung“ wahrgenommen wird. Sogenannte Anschlüsse werden beim Jump Cut nicht gewährleistet. Gemeint sind Anschlüsse in der Bewegung (Haltung einer Figur variiert von einem Schnitt zum Anderen), räumliche Anschlüsse (Figur springt von einem Ort zu einem Anderen) oder die Verbindung von leicht veränderten Einstellungsgrößen bei der gleichen Kameraposition. Der Jump Cut wird häufig benutzt um Zeitsprünge darzustellen. Dies wird mitunter auch als Stopptrick bezeichnet.

K

Eine Kamerafahrt bezeichnet allgemein die Bewegung der Kamera in einem Raum. Damit das Bild bei dieser Fahrt nicht verwackelt, wird bei professionellen TV- und Filmproduktionen mit technischen Hilfsmitteln gearbeitet. Hierzu werden z. B. Pump- oder Rollstative eingesetzt, die durch ihr Gewicht und die entsprechenden Rollen eine gleichmäßige Bewegung ermöglichen. Meist sind jedoch auch Rollstative noch zu instabil um eine ruhige Kamerafahrt zu ermöglichen. Ein wesentlich effizienteres, geläufiges Hilfsmittel ist der Dolly, auch Kamerawagen genannt, der für eine zusätzliche Präzision bei ebenen Unterlagen genutzt wird. Auf der dreidimensional Ebene werden Kräne, Kamerabühnen und sogar Hubschrauber für eine verwacklungsfreie Fahrt eingesetzt.

Eine Keule ist ein sehr stark gerichtetes Mikrofon, welches meist in Event- und Webfilmen verwendet wird, bei denen plötzlich O-Tongeber auftreten können und der Ton geangelt werden muss. Die Keule nimmt in einem sehr engen Winkel den Schall, der direkt von vorn auf die Membran trifft, auf. Je weiter der Schall von der Seite kommt, desto eher wird er ausgeblendet. Schall, der von hinten auf eine Keule trifft, wird mit annähernd 100% ausgeblendet. Dies erfordert etwas Geschick vom Tonmann, da er die Keule korrekt ausrichten muss, um den bestmöglichen Ton zu angeln.

Ein Keyframe ist ein Element in einem Non-linearen Schnittsystem. Mit einem Keyframe kann man bestimmte Video-, Audio- und Effektparameter wie Deckkraft, Sättigung oder Lautstärke, über die Zeit variabel verändern. So besteht die Möglichkeit einen Clip am Anfang auf 0% Deckkraft zu setzen und über eine bestimmte Zeitspanne auf 100% zu ziehen. Der Effekt ist ein aufblendendes Bild. Ein Keyframe kann man sich bildlich als verschiebbaren Punkt vorstellen, mit dem man die einzelnen Werte verändert. Um jedoch eine Veränderung zu erzielen, benötigt man logischerweise mindestens zwei Keyframes. Der Vorteil: Man verändert nicht nur die Werte an den beiden Keyframes, sondern entsprechend der Zeitachse auch die Werte dazwischen.

Als Keying bezeichnet man die Anwendung des Chroma Key–Effekts. Für weitere Informationen: Chroma Key

Eine Kompression beschreibt die Verdichtung von Daten ohne Verluste. Bits, die bei der Kompression eingespart werden, müssen bei der Dekompression wieder hergestellt werden. Leider gibt es im Video und Audiobereich keine nennenswerten Kompressoren, die in der Datenmenge einen deutlichen Unterschied hervorrufen. Deswegen wird oft eine Verbindung aus Datenkompression und Datenreduktion angewandt. Eine Datenreduktion ist jedoch mit unwiederbringlichem Qualitätsverlust verbunden.

Bevor ein Beitrag geschnitten wird, muss das gesamte Material eingespielt werden, von dem anschließend nur ein Bruchteil verwendet wird. Das restliche Material liegt auf der Festplatte und raubt Speicherplatz. Deswegen bieten die meisten Schnittsysteme die Möglichkeit des Konsolidierens an. Dabei wird sämtliches überflüssiges Material von der Festplatte gelöscht. Lediglich das Material welches im Projekt verwendet wurde, bleibt auf der Festplatte.

Der Kontrast gibt den Unterschied zwischen dem hellsten und dem dunkelsten Punkt wieder. Sind in einem Bild zu wenig Kontraste, wirkt es flau. Sind die Kontraste jedoch zu hoch eingestellt, verstärkt es einen Silhouetteneffekt. Kontraste kann man bis zu einem gewissen Grad nachregeln.

Die Konvertierung ist eine Überführung einer Datei in ein anderes Datenformat. Beispiel: aif -> mp3 Meist wird die Konvertierung angewandt um eine große Datei kleiner zu machen, aber auch um Kompatibilität zu anderen Dateien oder Anwendungen herzustellen.

Das Kopflicht, welches auf die Kamera montiert wird, bezeichnet eine bestimmte Lichtrichtung. Das Licht kommt senkrecht von oben und erzielt z. B. den Effekt, unerwünschte Augenschatten auszuleuchten. Außerdem wird das Kopflicht eingesetzt, um die senkrechte Schattenbildung des Vorderlichts zu neutralisieren. Den Strom bekommt das Kopflicht in der Regel entweder von der Kamera, oder von einem zusätzlichen Akkugürtel, den der Kameramann trägt.

Der Begriff Körperschall leitet sich vom Medium ab, über das sich der besagte Schall ausbreitet. Im Gegensatz zu normalem Schall breitet sich Körperschall nicht über die Luft sondern an oder durch einen Festkörper aus. Schall ist im Grunde nichts weiter als kleine Wellen, die den Druck und die Dichte minimal verändern. Das muss nicht immer zwangsläufig durch die Luft geschehen, sondern kann ebenso durch einen Festkörper geschehen. In der Filmproduktion spricht man von Körperschall, wenn man störende Nebengeräusche mit aufnimmt, die z.B. vom Anfassen des Mikrofons, leichten Erschütterungen oder Ruckeln des Mikrofonkabels kommen können. Der Zuhörer nimmt dies als dumpfes Rumpeln wahr. Das Einzige, was man dagegen tun kann, ist der Einsatz spezieller Halterungen wie bspw. eine Mikrofonspinne oder die Anwendung spezieller Filter bei leichtem Körperschall.

Ein Korrelationsgradmesser dient zur Darstellung der Phasenbeziehung beider Kanäle eines Stereosignals. Dadurch kann man sehen ob ein Stereo-Signal Monokompatibel ist. Sind die beiden Kanäle phasengedreht würde es zu einer Auslöschung des Signals kommen, sobald man es als Monosignal ausgeben würde. In diesem Fall würde der Korrelationsgradmesser einen negativen Wert anzeigen.

Der Kamerakran wird in der Film- und Fernsehbranche eingesetzt, um Kamerafahrten in der dritten Dimension zu ermöglichen und so die räumliche Wirkung des Bildes zu erweitern. Der Kran ermöglicht dynamische Fahrten in einem Raum. So kann der Kameramann z. B. auf ein Motiv zufahren oder es sogar überfliegen. Für diese Technik gibt es unterschiedliche Kamerakräne: z. B. mit einer Plattform, die zusätzlichen Platz für Assistenten bietet, aber auch Remote-Versionen, die ferngesteuert werden können.

L

Lens Flares sind unerwünschte, sichtbare Reflexionen, die innerhalb eines Linsensystems einer Kamera auftauchen. Übersetzt bedeutet Lens Flares Blendflecke. Sie treten meist kreisförmig oder sechseckig auf. Die Färbung der Lens Flares ist sehr unterschiedlich, da sie abhängig von der Beugungsintensität des Lichts ist.

Der Begriff Letterbox beschreibt ein Bildverhältnis, bei dem das Bild einen Balken am oberen und unteren Bildrand aufweist. Das Wort stammt aus dem, 1953 erschienenem Cinemascope-Film „The Robe“, dessen Bildseitenverhältnis an den damals verwendeten Briefumschlag „Business Envelope No 10“ erinnert. Die Standardseitenverhältnisse im Film- und Fernsehgeschäft sind 4:3 und 16:9. Gibt man jedoch einen Film, der ein Seitenverhältnis von 16:9 hat auf einem 4:3 – Bildschirm wieder, so bleiben am oberen und unteren Bildschirmrand Bereiche ohne Bildinformationen übrig. Dies äußert sich in zwei schwarzen Balken. Das Bild sieht so aus, als würde man durch einen Briefkastenschlitz sehen. So entstand der Name Letterbox.

Eine Libelle ist ein durchsichtiges, mit Wasser gefülltes Kunststoffgehäuse, welches am Stativkopf angebracht wird, um ihn mitsamt der Kamera in die Waage zu bringen. Nur wenn eine Nivellierlibelle vorhanden ist, kann man mit der Kamera horizontal korrekte Bilder und Schwenks aufnehmen.

Ein Lichtkoffer beinhaltet alles, was der Beleuchtungsmeister zum Aus- und Einleuchten benötigt. Meist sind drei Scheinwerfer in gleicher Intensität vorhanden. Dazu kommen drei Stative zum Aufstellen der Scheinwerfer mit Toren, unterschiedlichste Effektfolien, Holzklammern (zum Anbringen der Folien) und in manchen Ausführungen ein Dimmer. Ein Lichtkoffer gehört zum Standard–Equipment beim Dreh sämtlicher Filmproduktionen.

Übersetzt bedeutet Limiter Begrenzer. Es gibt sowohl einen Audio- als auch einen Videobegrenzer. In der Videotechnik schränkt der Limiter die Spannungspegel innerhalb eines Videosignals ein. Ein reines Weiß entspricht einer Spannung von 0,7 Volt. Sollte ein Wert über diese 0,7 Volt auftreten tritt der Limiter in Kraft und drückt den Wert auf 0,7 Volt zurück. In der Audiotechnik funktioniert ein Limiter ähnlich, nur das er hier den Audiopegel auf einen bestimmten Bereich drückt. Überschreitet der Audiopegel einen Wert von 0dB können unerwünschte Kratzgeräusche auftreten. Der Audiolimiter reguliert diesen Pegel bis zu einem gewissen Grad. Abzuraten ist vom Einsatz zweier Limiter (einer am Tonmischpult und ein zweiter an der Kamera), da sonst unerwünschte Pumpgeräusche hervorgehoben werden.

Einzelne Sequenzen aus dem Originalmaterial oder Rohmaterial werden für den Schnitt erfasst, um sie später für den Schnitt auf eine Festplatte ein zu spielen. Diesen Vorgang nennt man loggen. Normalerweise wird nach der Aufnahme geloggt. Der Vorgang kann jedoch auch direkt während der Aufnahme erfolgen. Zum Beispiel können in der Filmbearbeitung bestimmte besonders gut gelungene Takes unmittelbar nach der Aufnahme markiert werden.

Wenn man eine bestimmte Musik für einen bestimmten Teil eines Films benutzen will, der Musikteil aber eigentlich zu kurz für die Bildstrecke ist, besteht die Möglichkeit die Musik zu loopen. Dabei sucht man sich einen geeigneten Einstiegspunkt und den Ausstiegspunkt an der Stelle, wo sich die Musik wiederholen würde, und kopiert diesen Teil. Wenn die beiden identischen Musikteile nun aneinanderpassen, kann man diesen Teil so oft loopen, wie man will oder wie man es für die Bildstrecke braucht. Loops sind eine ständig angewandte Praxis im Videoschnitt. Ob im Image-, Web- oder Industriefilm – überall kann geloopte Musik angewendet werden.

Spricht man von der Luminanz, so ist die Rede von der Helligkeit eines Bildes. Für die Übertragung der Helligkeitsinformation gibt es ein Luminanzsignal. Zusammen mit den beiden Chrominanzsignalen bildet es die vollständige Farbinformation eines Bildes.

M

Bei einer Makroaufnahme bildet man kleinste Bildgegenstände so großformatig wie möglich ab. Beispielsweise eine Ameise oder eine Mücke. Normale Objektive schaffen es niemals, einen Bildgegenstand in dieser Größe und Auflösung scharf zu stellen. Für eine solche Aufnahme benötigt man ein spezielles Makroobjektiv.

Als Master wird die Hauptsequenz in einem Schnittsystem bzw. im späteren Verlauf das Hauptband benannt, auf dem sich der fertige Film befindet.

Der Match Cut ist eine Technik beim Non-Linearen Schnitt. Dabei wird dem Zuschauer durch einen Schnitt mit ähnlicher Bildbewegung, ähnlichem Bildinhalt oder ähnlicher Lichtstimmung, ein Zusammenhang vermittelt. Meist ist nicht mal ein klassischer Schnitt zu erkennen. Wenn zum Beispiel eine Person an einem Plakat vorbeigeht (das Plakat füllt die Bildfläche aus) und die selbe Person auf der anderen Seite des Plakats weitergeht, sich an einem anderen Ort oder zu einer anderen Zeit befindet, dann spricht man von einem Match Cut. Der Zuschauer hat keinen Schnitt bemerkt und denkt zunächst, dass die Szene weiter läuft, obwohl es bereits einen Szenenwechsel gab. In diesem Moment gibt es beim Zuschauer einen Aha-Effekt. Das bedeutet, dass in diesem Moment die Aufmerksamkeit gesteigert ist. Erklärende Passagen lassen sich also wunderbar im Anschluss eines Match Cuts einbinden. Ein Match Cut ist schwierig in der Umsetzung und bedeutet ein hohes Maß an Vorbereitung und Planung im Vorfeld.

Die Abkürzung „MAZ“ steht für magnetische Aufzeichnung (auch Magnetaufzeichnung). Der Begriff wird im Sprachgebrauch sowohl für die magnetischen Aufzeichnungsmedien (Kassetten), als auch für deren Abspielgeräte verwendet. Bei der Filmproduktion sind Mazen die meist genutzten Speichermedien.

Eine Mikrofonspinne ist eine Befestigungseinrichtung für Mikrofone an Stativen oder Angeln. Sie besteht aus einem Ring, der das Mikrofon trägt und mehreren Gummibändern, die das Mikrofon mittig halten. Durch diese Form der Befestigung werden so gut wie keine Vibrationen, kein Körperschall und kein Trittschall übertragen.

Die Mini-DV (Englisch DV= digital Video) ist ein Speichermedium und gehört zu den digitalen Kassettenformaten. Sie ist die Kleinste der drei möglichen DV-Kassetten und verwendet Formate wie DV und HDV. Sie ist das meist benutzte Speichermedium für Consumerkameras.

Motion-Graphics steht für die Kombination von Film, Animation, Illustration, Ton und dem gängigen Grafik-Design. Heutzutage sind Motion Graphics fester Bestandteil der Medien. Überwiegend finden sie in der Unterhaltungsbranche ihren Platz- ob in Werbespots, im Internet oder in Musikvideos- die Verwendung von Motion Graphics ist mittlerweile Gang und Gebe. Jeder kennt die Übergänge zwischen einem Werbespot und dem Programm im Fernsehen. Dort wird meist eine neue Sendung oder die im Anschluss Folgende via Banner vorgestellt. Hier wird zu 99% ebenfalls mit Animationen, 3D oder bewegten Illustrationen gearbeitet. Auch in Computerspielen oder bei Kinofilmen, wird nicht mehr an der Verwendung von bewegter Grafik gespart. Auch die Animation von Texten ist ein Element von Motion-Graphics.

MOV steht umgangssprachlich für Quicktimefilm. Der Name ergibt sich aus der Dateiendung des Containerformates (.mov). Für weitere Infos: Quicktime

MP3 (Bezeichnung nach der Dateinamenserweiterung; eigentlich: MPEG-1 Audio Layer III oder MPEG-2 Audio Layer III) ist Prozess zur verlustbehafteten Kompression digital gespeicherter Audiodaten.MP3 bedient sich dabei der Psychoakustik mit dem Ziel, dass nur für den Menschen hörbare Audiosignale zu speichern. Dadurch entsteht eine Reduzierung der Datenmenge, die die Audioqualität gar nicht oder sehr gering schwächt. Das Verfahren MP3 ist zurzeit zur Speicherung und Übertragung von Musik auf den Computer im Internet das weitaus geläufigste, obwohl es inzwischen eine erhebliche Anzahl von technischen weiterentwickelten Alternativen gibt.

Mpeg 4 ist ein (im Jahre 1999 veröffentlichter) Standard zur Datenreduktion von Videos. Erstellt wurde es, um besonders Systeme mit einer relativ geringen Rechenleistung oder einer schmalen Bandbreite zu entlasten und das natürlich bei so wenig Qualitätseinbußen wie möglich. Heute ist das Mpeg 4 jedoch mehr und mehr zum Austauschformat (auch im Bereich Fernsehen und Imagefilm) geworden, da die Kompression mit dem richtigen Codec ein Optimum an Qualität und Datenminimum herausholen kann.

N

Die Nahaufnahme ist eine der acht Einstellungsgrößen bei der Filmproduktion, die Auskunft über den gezeigten Bildausschnitt geben. Bei der nahen Einstellung werden sowohl der Kopf der Figur als auch ein Teil ihres Oberkörpers abgebildet. Meist endet das Filmbild auf der Höhe der Brust. Häufige Verwendung findet die Nahaufnahme bei Dialogen oder ähnlichen Gesprächssequenzen, bei denen die Mimik eine bedeutende Rolle spielt.

ND-Filter steht für Neutraldichtefilter und ist für die Reduzierung der Lichtmenge im Bild verantwortlich. Meist kann man ND-Filter über ein Filterrad an der Kamera zuschalten. Ist die Blende bereits fast geschlossen, das Bild aber immer noch zu hell, werden die ND-Filter (in verschiedenen Stärken) eingeschaltet. Außerdem werden ND-Filter eingesetzt, um eine höhere Bewegungsunschärfe zu erreichen. Da man die Blende mit eingeschaltetem ND-Filter weiter aufdrehen kann wird der Effekt der Bewegungsunschärfe verstärkt. Ein Aspekt der sowohl in Image-, Werbe- und Webfilmen, als auch in Event- und Industriefilmen von großer Bedeutung ist.

Wie bei dem ND-Filter an der Kamera gibt es auch spezielle Neutraldichtefolien, die dafür zuständig sind, überschüssiges, nicht benötigtes Scheinwerferlicht zu absorbieren. Es besteht auch die Möglichkeit ND-Folie vor einem Objektiv zum Einsatz zu bringen, falls in der Kamera kein ND-Filter vorhanden ist.

Unter einem Non-Linearen Schnitt versteht man die Bearbeitung des Videomaterials mit einem Videoschnittsystem, also einer PC-Software. Dazu muss das Videomaterial vor der Bearbeitung eingespielt werden, wahlweise auf eine Festplatte oder einem Raid. Anschließend kann man die Bild- und Tonteile beliebig verschieben, übereinanderlegen oder überblenden. Der Non-Linerare Schnitt stellt heute den Standard bei allen Filmproduktionen dar.

O

Die Abkürzung „O-Ton“ steht für den sogenannten Originalton. Hierbei handelt es sich um das nicht reproduzierbare Tonmaterial, welches während der Filmproduktion aufgezeichnet wird. In der Fernseh- und Filmwelt handelt es sich bei O-Tönen meist um Interviewsituationen. O-Töne machen den Film authentischer. Personen, die hinter einem Thema stehen, können so dem Zuschauer näher gebracht werden. Daher ist dieses Mittel in beinahe allen Bereichen (Imagefilm, Schulungsfilm, Industriefilm, Eventfilm) von hohem Interesse.

Das Objektiv ist die wichtigste Einrichtung an einer Kamera. Es ist das maßgebliche Bauteil zur Abbildung eines reellen Gegenstandes. Die wichtigste Eigenschaft eines Objektivs ist die Brennweite, da sie über den maximalen und minimalen Abbildungsmaßstab Aufschluss gibt. Außerdem wird das Objektiv nach seiner Bildqualität bewertet. Diese kann durch den Einsatz mehrerer Linsen in einem Linsensystem gesteigert werden. Ein weiteres wichtigeres Kriterium bei der Auswahl des richtigen Objektivs ist die Lichtempfindlichkeit, das gibt an wie viel Licht vorhanden sein muss, damit das Objektiv ein Bild erzeugen kann. Meist sind die Objektive an größeren Kameras das teuerste Bauteil.

Das Off ist ein Bereich aus dem ein Sprecher einen Kommentar gibt oder ein Protagonist redet, der aber für den Zuschauer nicht sichtbar ist. Der Sprecher aus dem Off ist demnach nicht mehr als eine kommentierende Hintergrundstimme, die jedoch für jeden Fernsehbeitrag unverzichtbar ist. Auch im Bereich der Filmproduktion werden des Öfteren Sprecher aus dem Off benutzt, um dem Zuschauer Informationen zu vermitteln, die man nicht bildlich umsetzen kann. Eine Offstimme bringt grundsätzlich Abwechslung in den Beitrag hinein.

Auch als Plansequenz bezeichnet, ist ein Oneshot eine meist sehr lange Sequenz, in der kein einziger Schnitt vorkommt. Innerhalb dieser Sequenz wird eine Handlung in aller Regel vollständig gezeigt. Der Vorteil einer Plansequenz liegt in der Glaubwürdigkeit der Szene. Durch Schnitttechniken kann man viele Einzelheiten verfremden oder verändern. In einem Oneshot besteht nicht viel Spielraum für Veränderungen. Der Nachteil eines Oneshots liegt in dem hohen Planungsaufwand und den vielen Versuchen, die man in der Regel benötigt, bis alles so funktioniert hat, wie man es sich in einem Konzept überlegt hat. Zudem kann es sehr schnell passieren dass es dem Zuschauer langweilig wird, da ein Schnitt, aufgrund der Abwechslung die er bietet, für die meisten Menschen interessanter wirkt.

Der Outpunkt ist ein Begriff aus Non-linearen Schnittsystemen. Sie markieren das Ende eines Einzelclips. Zusammen mit dem Inpunkt wählt man so den Abschnitt eines Films, den man sich in eine Timeline ziehen bzw. den man aus der Timeline wieder herausexportieren will.

Der Begriff „Overshoulder“ beschreibt eine bestimmte Perspektive während eines Dreh. Hierbei erfolgt der Shot einer Person direkt über die Schulter einer Anderen. Meist sieht man im Filmbild zusätzlich einen Teil des Kopfes, aber auch Teile der Schulter der Person, die mit dem Rücken zur Kamera steht. Bei der Filmproduktion werden „Overshoulder Shots“ meist eingesetzt, um klassische Dialogszenen aufzulockern.

P

Die Abkürzung PAL steht für Phase Alternating Line und bezeichnet ein Farbübertragungsverfahren im analogen Fernsehen. Es steht in Konkurrenz zum überwiegend im amerikanischen Raum genutzten NTSC-Verfahren (National Television Systems Committee). Dabei hat es einen entscheidenden Vorteil. Bei der Übertragung von Farben gehen immer Farbinformationen verloren. Diese kann man beim NTSC – Verfahren nur manuell am Fernseher nachregeln. Dies ist jedoch oft unbefriedigend und keineswegs genau. Deshalb wurde dieses Verfahren auch in einigen Medien scherzhaft mit „Never The Same Color“ betitelt. Bei einem PAL – Fernsehbild kann dies nicht passieren. Dazu muss man wissen, dass das Bild aus 25 Vollbildern, also 50 Halbbildern besteht. Ein Halbbild ist dabei dem darauf folgenden Halbbild sehr ähnlich. Der Gedanke ist, das Signal jedes zweiten Halbbildes 180° zu drehen und eventuelle Differenzen (also Farbverlust) automatisch auszugleichen. Die Folge: Man erhält am Fernsehbildschirm die Farbe, die im Schnitt festgelegt wurde. Ein nervendes Nachregeln ist nicht nötig. Aufgrund dieses Vorteils ist PAL der Standard, der sich am weitesten verbreitet hat. Nicht nur in großen Teilen Europas, sondern auch Südasien, Australien, weiten Teilen Afrikas und Südamerikas ist das PAL-Format der Fernsehstandard.

Bei einer Parallelmontage werden zwei oder mehr unterschiedliche Situationen oder Geschichten gegeneinander geschnitten, also abwechselnd gezeigt, um den Eindruck zu vermitteln, dass beide Situationen zur selben Zeit geschehen. Es besteht auch die Möglichkeit, keinen zeitlichen, sondern einen inhaltlichen Zusammenhang herzustellen. So wird bei einer Verfolgungsjagd oft zwischen den Verfolgten und den Verfolgern hin- und hergeschnitten. Auch wenn man beide nicht in einem Bild sieht, entsteht der Eindruck, dass sie inhaltlich zusammengehören. In jedem Fall erzielt man mit einer Parallelmontage eine enorme Spannungssteigerung.

Eine Patchbay ist nichts anderes als ein Steckfeld, das zur Vereinfachung der Datenübertragung von Video und Audiosignalen dient. Es wird verwendet, um mehrere Geräte ansteuern zu können, ohne jedes Mal ein neues Kabel legen oder umstecken zu müssen. Dazu sind an der Rückseite der Patchbay alle benötigten Geräte angeschlossen, die miteinander verkabelt werden müssen. An der Vorderseite des Steckfeldes werden die einzelnen Geräte mittels kurzer Patchkabel miteinander verbunden. So kann man zum Beispiel eine MAZ, einen DVD-Recorder oder einen Monitor mit unterschiedlichen Schnittplätzen verbinden und das, indem man lediglich die Weiterleitung des Signals mit dem Patchkabel verändert. Ein weiterer Vorteil liegt in der sehr viel längeren Lebensdauer der Kabel und des minimierten Kabelsalates, da man benötigte Kabel nicht ständig verlegen muss.

Ein Peakmeter oder auch Aussteuerrungsmesser dient zur genauen Darstellung von Audio-Spitzenspannungen in Echtzeit. Es gibt Peakmeter mit LED-Balken-Anzeige oder einfache Zeigerinstrumente.

Der Begriff Pegel wird sowohl in der Audio- als auch in der Videotechnik verwendet. Er steht für einen momentanen Spannungszustand eines Signals. Der Videopegel gibt an, wie hell oder dunkel ein Bild ist. Dabei entspricht der Spannungswert 0,7Volt einem reinen Weiß (0Volt = Schwarz). Der Audiopegel hingegen gibt an, wie laut oder leise ein Audiosignal ist.

Ein Pixel ist ein Bildpunkt einer digitalen Grafik oder eines Bildschirms. Je nach Medium auf dem das Pixel erstellt oder wiedergegeben wird, handelt es sich um quadratische oder rechteckige Bildpunkte mit den unterschiedlichsten Seitenmaßen. Einzeln ist ein Pixel nur ein farbiger Punkt. Erst in der Gesamtheit, als Raster zusammengefügt, ergibt sich das fertige Bild. Dabei ist die Anzahl der Pixel auf eine festgelegte Fläche entscheidend für die Bildqualität. Ein Bild mit 10 x 10 cm und 1000 Pixel ist qualitativ schlechter, als das gleiche Bild mit 10000 Pixel.

Sequenz ohne Schnitt. Eine Plansequenz Ist eine lange Einstellung in der meist eine abgeschlossene Handlung ohne Schnitt gezeigt wird. Dies wird meist mit einer Kamerafahrt aufgezeichnet. In Musikvideos nennt man die Plansequenz auch Oneshot.

Die nachträgliche Bearbeitung des (rohen) Filmmaterials wird als Post Produktion bezeichnet. Während dieses Prozesses wird das vorhandene Material geschnitten, vertont, sowie mit musikalischen Einheiten unterlegt. Für die Filmproduktion ist diese Modifizierung ein zentraler Bestandteil, denn erst hier werden einzelne Filmsequenzen zusammengefügt.

POV ist die Abkürzung für „Point Of View“ und bezeichnet die Perspektive aus Sicht einer agierenden Person. Die Person ist dabei selbst nicht zu sehen. Man nimmt lediglich den Blick durch die Augen der Person wahr. Durch den Einsatz eines POV–Shots fühlt sich der Zuschauer näher an der Handlung oder dem Geschehen. Deshalb sollte man z.B. auch im Bereich der Imagefilme an die Perspektive „Point Of View“ denken.

Um die Vorteile und Anwendungsmöglichkeiten eines Produktes optimal darzustellen, bietet sich ein sogenanntes Produktvideo an. Anders als bei einem Werbefilm, liegt hier der Schwerpunkt mehr im Bereich des Praktischen. Das eigentliche Konzept eines Produktfilms ist an keine festen Richtlinien gebunden. Es geht viel mehr darum, die Funktion eines Produktes herauszustellen, zu erläutern und anhand dessen auch die verkaufsförderlichen Vorteile zu verdeutlichen. Dazu werden sie in einem Produktvideo bestmöglich visualisiert. Genutzt werden die Filme entweder im Handel, dort wo sie direkt die Kunden erreichen oder auch im Zusammenhang mit einer Präsentation für Geschäftspartner und im Internet. Das Produkt kann in manchen Fällen natürlich auch eine Dienstleistung sein. Hier ist es definitiv vorteilhaft die Arbeitsvorgänge oder Abläufe nicht nur zu nennen, sondern auch bildlich darzustellen.

Q

Die Quantisierung ist ein Verfahren, das sowohl bei der Wandlung von analoge in digitale Signale, als auch bei der Reduktion von Daten Anwendung findet. Dabei wird ein unkomprimiertes, stufenloses Signal in ein bestimmtes Raster (abhängig von der Größe der Quantisierung) eingegliedert. Das Signal wird in Stufen eingeteilt. Je größer die Bit-Quantisierung, desto mehr Stufen gibt es und desto näher kommt das Signal an das Ausgangssignal heran. Entsprechend besser ist in diesem Fall die Qualität des Materials, womit sich jedoch der benötigte Speicherplatz erhöht. Das Verfahren kann man sich mathematisch als ein Rundungsverfahren vorstellen. Werden die erhaltenen Werte in ein Koordinatensystem eingetragen, wird die Quantisierungstreppe sichtbar.

Quicktime ist ein (von der Firma Apple entwickeltes) Containerformat und bildet den direkten Konkurrenten zum AVI – Container. Das Format kam bereits 1992 auf den Markt und ist plattform- und codecunabhängig. Das heißt man kann in einem Quicktime-Film beinahe alle Codecs benutzen. Angefangen beim bekannten H.264 bis hin zum eher speziellen IMX-Codec. Deshalb ist es nicht gewährleistet, wenn ein Rechner Quicktime abspielen kann, dass er auch diesen speziellen Film abspielen kann. Auch die Qualität und die Auflösung des Videos ist unabhängig vom Quicktime – Container.

R

Ein Rack ist ein Schrank mit einer genormten Breite, in dem man Geräte wie Raid-Systeme, Mazen oder Patchbays fest installieren kann. Diese Racks stehen dann meist in Hauptschalträumen oder speziellen Technikräumen.

Mit Hilfe des RAID-Systems (englisch für Redundant Array of Independent Disks) können mehrere physisch unabhängige Festplatten miteinander verknüpft und zu einem gemeinsamen Laufwerk zusammengefasst werden. Gegenüber einzelnen Festplatten bietet diese Methode den Vorteil, dass auf die gewünschten Daten schneller zugegriffen werden kann und die Daten deutlich besser gesichert sind.

Aus dem Englischen kommend, bedeutet Remote oder Remote Control nichts anderes, als eine handelsübliche Fernbedienung für Fernsehr, DVD-Player oder Stereoanlagen. In der Film- und Fernsehtechnik spricht man jedoch auch bei einer besonderen Schnittstelle, der sog. RS422–Datenschnittstelle von einer 9-Pin-Remote. Diese Datenschnittstelle übernimmt die Aufgabe der MAZ-Steuerung vom Computer aus. Im Regelfall befinden sich Schnittrechner und MAZ-Maschine nicht im selben Raum. Deshalb ist es sehr praktisch wenn man die MAZ vom Schnittrechner aus steuern kann. Sowohl für den Einspiel- als auch für den Ausspielvorgang bedeutet die Remote eine immense Arbeitserleichterung. Die Datenübertragung verläuft mit bis zu 10 MBit in der Sekunde, wodurch sie sich hervorragend für die Filmproduktion eignet.

In einem Non-Linearen Schittsystem wird vielfach mit den verschiedensten Effekten gearbeitet. Besonders bei aufwendigeren Image- oder Werbefilmen kommt man kaum noch ohne Effektbearbeitung aus. Werden diese aufwendig oder hochwertiger, benötigt der PC eine zusätzliche Berechnungszeit, um den Effekt in Echtzeit abspielen zu können. Diesen Prozess bezeichnet man als Rendering. Die Zeit, die der Rechner für das rendern benötigt, ist dabei abhängig von der Leistung des Systems.

Die Richtcharakteristik gibt an, aus welcher Richtung die Schallaufnahme eines Mikrofons erfolgt oder anders gesagt, wie empfindlich ein Mikrofon für Schall aus bestimmten Richtungen ist. Kugelcharakteristik: Ein Mikrofon mit Kugelcharakteristik nimmt den Schall aus allen Richtungen gleich auf. Dies ist z.B. für Ansteckmikrofone sehr wichtig, da man auf keine genaue Ausrichtung achten muss. Jedoch ist die Kugelcharakteristik viel anfälliger für Störsignale und hat eine hohe Rückkopplungsanfälligkeit. Achtcharakteristik: Ein Mikrofon mit Achtcharakteristik ist empfindlich gegenüber Schall von vorne und hinten, seitlich einfallender Schall wird fast komplett ausgeblendet. Nierencharakteristik: Ein Mikrofon mit Nierencharakteristik nimmt den Schall von vorne auf, von hinten eintreffender Schall wird nur geringfügig aufgenommen. Die Nierencharakteristik wird oft für Stereoakustische Situationen ausgenutzt, indem man zwei Mikrofone richtig positioniert. Außerdem ist ein Mikrofon mit Nierencharakteristik gut für Live-Bühnen-Aufnahmen, da unerwünschte Schallquellen von der Seite keinen Einfluss nehmen. Supernierencharakteristik: Ein Mikrofon mit Supernierencharakteristik ist noch stärker gerichtet als eine Niere und eignet sich damit für Aufnahmen aus weiter Entfernung oder in lauten Umgebungen. Durch die starke Richtwirkung ist die Superniere gegenüber der Niere jedoch auch empfindlicher gegenüber von hinten einfallendem Schall.

Als Rohschnitt wird jener Schritt der Post-Produktion bezeichnet, bei dem einzelne Filmbilder in eine gewünschte Reihenfolge angeordnet werden, um einen ersten Eindruck vom Endprodukt zu erhalten. Bei diesem Vorgang wird zunächst auf den Einsatz von Musik und Spezialeffekten verzichtet. Lediglich O-Töne, besondere Bilder bzw. Bildstrecken, die von Interesse sind.

Mit Hilfe der Rollspinne kann ein Kamerastativ bei der Film- und Videoproduktion gesichert, aufgestellt und aufgrund der am unteren Ende befindlichen Rollen bewegt werden. Die Ausleger der Spinne verhindern dabei das auseinanderrutschen der Stativbeine. Eingesetzt werden Rollspinnen meist um die Position der Kamera schnell zu wechseln. Gänzlich ungeeignet sind Rollspinnen jedoch für Kamerafahrten, da sie zu instabil sind, um das Bild ruhig zu halten. Hierfür werden in der Praxis meist Dollys eingesetzt.

S

s3D ist die Abkürzung für stereoskopisches 3D. Es bezeichnet ein Prozess, bei dem ein Bild in 3 Dimensionen dargestellt wird. Bei diesem Verfahren werden zwei Bilder erzeugt, die jeweils einem Auge gezeigt werden. Aufgrund einer Verschiebung der beiden Bilder zueinander, entsteht für den Betrachter eine Räumlichkeit, die jedoch für jede Aufnahmeperspektive extra zugeschnitten werden muss. Der Vorteil gegenüber holographischem 3D liegt in der Betrachtungsmöglichkeit. Gegenüber einer Holographie kann man bei der Stereoskopie das Bild von allen perspektivischen Seiten betrachten. Lediglich eine 3D-Brille ist für das Betrachten eines 3D-Filmes mit Stereoskopieverfahren notwendig. Diese Technik gewinnt in der heutigen Zeit mehr und mehr an Interesse. Nicht nur im Kino und TV-Bereich, auch auf dem Gebiet der Image- und Werbefilm nimmt die Produktion in 3D mehr und mehr zu.

Das menschliche Auge erkennt nur den Bereich als „scharf“ an, in dem Kanten und Linien klare Grenzen aufweisen. Die Schärfentiefe beschreibt den Bereich vor und hinter der optimalen Schärfeebene.
Eine große Schärfentiefe bildet also einen besonders großen Bereich auf dem Medium scharf ab. Allerdings lassen sich mit einer kleinen Schärfentiefeeinstellung einzelne Teile des Gesamtbildes besonders gut hervorheben, da der Rest des Bildes unscharf wahrgenommen wird.
Die Schärfentiefe ist daher ein beliebtes Mittel zur Bildgestaltung und Bildkomposition bei der Film- oder Videoproduktion. Die Schärfentiefe ist hauptsächlich abhängig von dem verwendeten Filmmaterial, der Brennweite, der Blendeöffnung und dem Abstand zwischen Motiv und Kamera.

Je nach Optik ist ein Bild nur in einem bestimmten Bereich scharf. Auf diese Weise kann man den Blick des Zuschauers lenken. Soll bei der Filmproduktion die Aufmerksamkeit von einem Objekt auf ein Anderes gelenkt werden, kann die Schärfe von einem Objekt auf ein anderes Objekt verändert werden. Dieser Vorgang wird als Schärfenverlagerung bezeichnet.

(Kamera-)Schienen werden bei der Filmproduktion eingesetzt um Kamerafahrten zu realisieren. Vor dem Gebrauch werden sie zunächst auf Stativen befestigt (die Anzahl der Stative variiert je nach Länge der Schiene). Anschließend wird der Schienenkopf montiert, der als Halterung für die Kamera dient. Durch den Einsatz der Schiene können vor allem Bewegungen ruhiger festgehalten werden als beim Einsatz einer Handkamera.

In der Film- und Fernsehbranche wird mit nichtlinearen und linearen Schnittsystemen gearbeitet. Nichtlineare Schnittsysteme bearbeiten das Videomaterial auf der Basis von Softwaresystemen und Festplatten. Ein Großteil der TV- und Filmindustrie nutzt die Video-Editing Systeme Final Cut Pro des Herstellers Apple und Avid Media Composer des Softwareunternehmens Microsoft. Ein etwas älteres Modell ist das Schnittverfahren mit MAZ-Maschinen, auch lineares Schnittsystem genannt. Hier werden Sequenzen des Ton- und Bildmaterials von einem Zuspielband auf das Masterband kopiert. Der Nachteil hierbei ist, dass diese Ausschnitte schon in der letztendlichen Reihenfolge auf das finale Schnittband kopiert werden müssen. Für nachträgliche Änderungen muss das Band neubespielt werden.

Die Schulterkamera ist eine tragbare Kamera, die man – wie der Name vermuten lässt- wegen ihrer Machart auf der Schulter trägt. Sie bietet dem Kameramann eine gute Mischung aus Mobilität und Handhabung. Der Vorteil einer Schulterkamera ist ihr Gewicht. Jeder, der bereits versucht hat mit einem Camcorder aus der freien Hand ein ruhiges Bild zu schießen, wird wissen wie schwierig sich dieses Unterfangen, mit einer viel zu leichten Kamera, realisieren lässt. Bei einer Schulterkamera ist dies sehr viel eher möglich. Die Auflage auf der Schulter macht es noch etwas einfacher. Schulterkameras sind die Standard – Broadcastkameras, die sowohl beim Dreh für Reportagen und Magazinbeiträgen im Fernsehen, als auch für Image-, Schulungs- oder Eventfilme zum Einsatz kommen.

SD ist eine Fernseh- oder Videonorm, deren Auflösung im Vergleich zu HD sehr viel geringer ist. Für das Format PAL existiert im Regelfall eine Auflösung von 768 x 576 Pixel.

Serial Digital Interface (SDI) ist ein geläufiger Begriff aus dem Bereich der Fernsehproduktion und bezeichnet eine digitale Schnittstelle für die serielle Übertragung von unkomprimierten digitalen Audio- und Videodaten über ein Koaxialkabel. Die SDI-Schnittschnelle ermöglicht eine verlustfreie digitale Codierung von analogen Videostandards, wie den geläufigen NTSC-und PAL-Formaten. Die Übertragungsstandards werden hierbei von der Society of Motion Picture and Television Engineers Standards spezifisiert.

An einem Sichtplatz sichtet der Redakteur das Rohmaterial, sucht die besten Sequenzen heraus und erstellt dann eine sogenannte Schnittliste. Zur Technik gehört in der Regel ein Fernsehmonitor, ein VHS-MiniDV-Rekorder und Kopfhörer, bzw. Abhörlautsprecher. Beim Sichten überprüft der Redakteur auch die Qualität des Materials und kann so eventuelle Bildfehler oder Tonstörungen feststellen.

Die Steadicam oder auch Schwebestativ genannt, ist ein stabilisierendes Halterungssystem für tragbare Film- und Fernsehkameras, die es dem Kameramann ermöglicht, sich mobil zu bewegen und trotzdem die Kamera ruhig zu halten. Das Prinzip funktioniert über ein hohes Eigengewicht des Schwebestativs, welches über einen Tragarm mit einer Weste verbunden ist, welche der Kameramann trägt. Aufgrund dieser sehr speziellen Technik werden leichte, ungewollte Bewegungen des Kameramanns ausgeglichen, Schwenks und Fahrten werden jedoch sehr viel ruhiger als würde man sie aus der Hand oder von der Schulter filmen.

Der Stopptrick ist ein Aufnahmeeffekt, mit dem Personen oder Gegenstände wie durch Zauberhand erscheinen oder auch wieder spurlos verschwinden. Bei dem Trick werden Gegenstände oder Personen vor der nächsten Einzelbildaufnahme umplatziert oder heraus genommen. Die Animation erscheint dann später in der Wiedergabe.

Um eine einwandfreie Projektrealisierung zu garantieren, ist es immer von Vorteil eine Art Anleitung zu haben, nach der gearbeitet werden kann. Hier kommt das Storyboard ins Spiel. Sei es um beim Briefing alle nötigen Mitarbeiter über die Projektumsetzung zu informieren und zu instruieren oder um eine Geschichte visuell ansprechend darzustellen, um sie dann dem Auftraggeber zu präsentieren. Das Storyboard ist im Grunde genommen nichts anderes als eine detaillierte, im besten Falle selbstredende Informationssammlung zu einem Projektablauf, oft in Kombinationen mit passenden Illustrationen, um den Sachverhalt zu untermalen und zu verdeutlichen.

Streaming stammt aus dem Englischen und heißt übersetzt einfach nur „Strömen“ oder „Fließen“. In einem medialen Kontext, bezeichnet es aber den Vorgang der Datenübertragung von Audio- oder Videodaten im Internet – auch bekannt als Web-TV oder Internet-Radio. Die Mediadaten werden hierbei empfangen und gleichzeitig – mittels eines Plug-ins oder einer Software – auf dem Bildschirm wiedergegeben.

Bei der Supertotalen ist der Bildgegenstand eine Landschaft. Zwar können Menschen im Bild vorkommen, sie erscheinen jedoch verschwindend klein. Deshalb wird die Einstellung auch Panorama oder Weitwinkel-Einstellung genannt.

Die symmetrische Signalübertragung wurde entwickelt, um Signale auch über längere Strecken weitgehend störungsfrei übermitteln zu können. Dabei wird das Signal nicht nur über einen Einzigen Leiter übertragen, sondern über ein Leiterpaar. Beide Leiter führen eine gleich große Spannung, jedoch mit einer entgegengesetzten Polarität. Da ein Referenzsignal mit übertragen wird können eventuelle Störungen, aufgrund der Entfernung, fehlerfrei ausgeglichen werden. Eine symmetrische Signalübertragung wird in der Film-, Image- und Werbeproduktion, meist im Audiobereich mittels XLR-Stecker realisiert.

T

Das Tageslicht besitzt eine Farbtemperatur von ungefähr 5.600 Kelvin, abhängig von der Intensität des Sonnenlichts. Studiolicht besitzt im Vergleich eine geringere Temperatur – 3,200 Kelvin. Der Farbton einer Lichtquelle kann auch künstlich mit der entsprechenden Lichtausstattung erzeugt werden. Das ermöglicht beim Dreh eine gewisse Unabhängigkeit von den Lichtverhältnissen, da mit der richtigen Beleuchtung auch bei Nacht, künstlich Tageslicht erzeugt werden kann. Das menschliche Auge kann hierbei keinen Unterschied von mehren 100 Kelvin im oberen Bereich der Skala wahrnehmen. Die gleichen Differenzen im unteren Bereich werden hingegen sofort vom Auge erfasst.

Der Begriff stammt ursprünglich aus dem Marketingbereich und bezeichnet in der Fernsehbranche eine kurze Einspielung, die ein zukünftiges Programm schmackhaft für den Zuschauer machen soll.

Thumbnail ( englisch für Vorschaubild ) bezeichnet digitale Miniaturbilder oder –grafiken, die u.a. auf nichtlinearen Schnittgeräten oder an Kamerarecordern als Vorschau oder Übersicht der einzelnen Szenen dienen. Bekannt geworden ist der Begriff Thumbnail jedoch im Bereich des Web-Tv. Auch dort werden Videos mit einem Vorschaubild angezeigt, bevor man darauf klickt um sie zu starten. Diese Thumbnail wird meist automatisch beim Hochladen des Videos erstellt. Der Nachteil ist dabei das irgendein zufälliges Bild aus dem Video herausgesucht und als Thumbnail verwendet wird. Diese Bilder sind jedoch in der Regel wenig repräsentativ und sagen nichts über das Video aus. Wesentlich effektiver ist es sich selbst ein bild als Thumbnail auszurechnen und dieses dann im Internet einzupflegen.

Das Tagged Image File Format (TIFF oder auch TIF) ist ein pixelorientiertes Dateiformat, dass vor allem von Grafikern, der Verlagsbranche und Fotografen zum Speichern von Bilddaten genutzt wird. Der Vorteil dieses Formats ist, dass Bilddateien verlustfrei komprimiert werden können. Das heißt, ein Bild verliert nicht an Qualität wenn es z.B. nach der Bearbeitung in Photoshop wieder gespeichert wird. Der Speicherbedarf der TIFF-Datei ist dabei relativ groß, da keine Datenreduktion verwendet wird. Ein weiterer Vorteil von TIFF ist die Speicherung von Masken, die in einem Schnittsystem bestimmte Bereiche eines Bildes freistellen können. Auf diese Weise werden mehrere Bilder miteinander kombiniert.

Ein Großteil der geläufigen Schnittsysteme besitzt als zentrales Element eine Timeline. Sie dient der grafischen Darstellung eines Films, indem einzelne Szenen oder Takes als Balken an einer sogenannten Zeitachse angeordnet sind. Diese Balken teilen sich in vertikal übereinander angeordnete Ton- und Bildspuren auf und können vom Cutter mit dem Cursor beliebig an der Timeline verschoben werden. Der Redakteur erstellt dafür eine Schnittreihenfolge des endgültigen Beitrags.

Bei einer totalen Einstellungsgröße wird der Bildgegenstand und seine direkte Umgebung dargestellt. Dabei muss es sich nicht immer um einen einzelnen Gegenstand handeln. Es können auch genau so gut ganze Personengruppen in ihrer Umgebung gezeigt werden. Totalen vermitteln einen Überblick über Charaktere und Umfeld in dem man sich befindet. Landschaften bilden zwar nicht den Hauptbestandteil des Bildes, trotzdem wirken Menschen im Bild eher unwichtig. Totalen sind deshalb in Filmproduktionen notwendig für die Orientierung, aber nicht zu häufig einzusetzen, da sie sonst das Gefühl von Unnahbarkeit vermitteln.

Trittschall ist eine besondere Form des Körperschalls, bei dem Tritt- oder Maschinengeräusche über den Boden oder die Wand in ein Nachbarzimmer übertragen werden. In beinahe allen Fällen der Filmproduktion ist Trittschall unerwünscht.

Innerhalb von Sekunden überzeugen. Das ist das Ziel eines TV-Spots. Ein kurzer Werbe-Film über eine bestimmte Marke oder ein beliebiges Produkt, das vermarktet oder etabliert werden soll. Auch um am Image einer Marke zu arbeiten, es zu ändern oder zu verbessern, wird oft zu einem Werbefilm gegriffen. Manche TV-Spots haben es sogar geschafft eine Marke zum Kult werden zu lassen- z.B. Coca Cola und die Weihnachtstrucks, die jedes Jahr wieder im Fernsehen zu sehen sind. Der Vorteil ist gegenüber Print- Werbung, dass hier zusätzlich durch Musik, Animation oder Ähnliches Emotionen beim potenziellen Kunden geweckt werden können und selbst die Wissenschaft hat bestätigt, dass uns Gefühle zum Kauf bewegen. Die meisten Unternehmen, mit entsprechend finanziellen Mitteln, entscheiden sich für die Verbreitung der Werbung via Fernsehen. So erreichen sie eine große Masse an möglichen Käufern und können mit einem frischen und ansprechenden Spot folglich viel Aufmerksamkeit ernten.

U

Sowohl Audio- als auch Videosignale arbeiten mit einem bestimmten Pegel oder Höchstspannung. Treten jedoch Spannungsspitzen auf, die höher sind als die maximal zulässige Spannung, ist oft Qualitätsverlust die Folge. Im Videobereich liegt diese zulässige Spannung bei 0,7V (= Weiß). Tritt nun jedoch eine Lichtquelle auf, die das Bild überstrahlen lässt, können Bildbereiche „wegbrennen“. Ein unerwünschter Effekt, den man in keinem Image- oder Werbefilm sehen will, da das Bild zu stark überbelichtet ist. In der Audiotechnik übersteuert der Ton bei einem Audiopegel über 0dB. Die Folge ist ein Kratzgeräusch, welches nur sehr umständlich (meist überhaupt nicht) wegzubekommen ist. Jegliche Übersteuerung wird in anderer Literatur auch als Clipping bezeichnet.

Der Begriff „Umschnitt“ hat zwei unterschiedliche Bedeutungen. Zum einen wird durch ihn der Wechsel einer Bildquelle in einer Sequenz bezeichnet. Zum anderen wird der Begriff gebraucht, um den Prozess der Filmproduktion zu beschreiben, der nach der Abnahme stattfindet. Während dieser Phase werden alle Änderungswünsche des Kunden am Film vorgenommen.

Als „unbunte Farben“ werden jene Töne bezeichnet, die nicht im Farbkreis vorhanden sind (schwarz, weiß, grau). Auch Farben mit einer geringen Sättigung gelten als unbunt.

V

„Vario-Optik“ ist ein Begriff aus der Kameratechnik und bedeutet „Zoomobjektiv“.

Eine Vektorgrafik ist ein am PC erstelltes Bild, das lediglich mit einfachen Formen beschrieben wird (Kreise, Rechtecke, Polygone, Linien, etc.). Meist handelt es sich bei den Grafiken um Firmenlogos oder Präsentationsdiagramme. Der Vorteil der Vektorgrafik liegt in der Größe, in der das Motiv dargestellt werden kann. Da das Bild mit Vektoren (mathematische Koordinaten) beschrieben wird und nicht mit einem Pixelraster, kann die Bildgröße beliebig variieren, ohne einen Qualitätsverlust zu erreichen. Weiterhin bieten Vektorgrafiken den Vorteil, dass sie nur geringe Speicherkapazitäten in Anspruch nehmen, da sie lediglich Informationen wie Ort der Linie, Linienstärke und die entsprechende Farbe speichern. Besonders im Bereich Image- und Werbefilm wird von der ausführenden Produktionsfirma ein Logo als Vektorgrafik benötigt. Diese kann ohne Schwierigkeiten in ein Schnittsystem importiert und dort in der entsprechenden Größe verwendet werden.

Verlaufsfilter sind spezielle Effektfilter, die meist in aufwendig produzierten Image- und Werbefilmen zum Einsatz kommen. Er zeichnet sich dadurch aus, dass er auf einer Seite komplett durchlässig ist und von dort langsam in eine andere Farbe verläuft. Wie alle Filter werden Verlaufsfilter vor dem Objektiv angebracht. Sie verändern die Stimmung eines Bildes enorm. So kann beispielsweise mit Hilfe eines roten Verlaufsfilters ein Sonnenuntergang farblich verstärkt werden. Dabei wird der Filter so angebracht, dass der Verlauf etwa auf der Horizontlinie des Bildes entlangläuft. Auf diese Weise bleibt die Landschaft farblich unverändert, lediglich die Farbe des Himmels wird geändert. Eine Außnahme stellt der graue Verlaufsfilter dar. Mit seiner Hilfe wird nicht die Farbe des Bildes verändert, sondern dessen Kontrast erhöht. Eingesetzt wird er häufig, wenn der Himmel während einer Aufnahme zu hell erscheint.

Wird ein Bild aus einer Perspektive aufgenommen, die oberhalb der normalen Augenhöhe liegt, spricht der Fachmann von der Vogelperspektive. Sie wird meist dann verwendet, wenn Objekte kleiner dargestellt werden sollen, als sie eigentlich sind. Weiterhin wird die Vogelperspektive verwendet, um dem Zuschauer einen Überblick über den Raum zu geben, in dem sich die Handlung abspielt. Vor allem Landschaftsaufnahmen entstehen aus der Vogelperspektive.

Vox-Pops sind in erster Linie O-Töne, die einer Straßenbefragung gleich, in Werbe- und Webfilmen verwendet werden. Meist werden mehrere kurze Vox-Pops aneinander geschnitten, sodass der Eindruck eines Querschnitts der Bevölkerungsmeinung zu einem bestimmten Thema entsteht. Der Begriff Vox-Pops entstand aus dem lateinischen Begriff Vox populi und bedeutet so viel wie „Stimme des Volkes“.

W-X

Der Weißabgleich ist eine Einstellung an elektronischen Kameras, der die Verstärker der drei Farbkanäle Rot, Grün und Blau so aufeinander abstimmt, dass ein farbrichtiges Bild wiedergegeben wird und die weißen Bildteile einer Szene so keinen Farbstich besitzen. Mit der Angleichung der Farbtemperatur werden so alle Farben innerhalb des Farbenraums des Farbfernsehens korrekt reproduziert. Ein Weißabgleich empfiehlt sich bei einer Veränderung der Beleuchtungssituation, das heißt z.B. ein Wechsel von Kunstlicht zu Tageslicht. Bei Kamerarecordern geschieht das manuell; hierfür wird die Kamera auf einen weißen Gegenstand gerichtet und der elektronische Weißabgleich per Knopfdruck ausgelöst. Bei den meisten Kameras lassen sich verschiedene Weißabgleichswerte als feste Größe speichern, so hat Tageslicht einen Grund von 5600 Kelvin und Kunstlicht einen von 3200 Kelvin. Der Weißabgleich kann bei Kamerarecordern vor allem als ein gestalterisches Mittel eingesetzt werden.

Als Weitwinkelobjektiv wird ein Objektiv bezeichnet, das einen großen horizontalen Bildwinkel besitzt. Der Bildwinkel kann einen Bereich abbilden, der größer ist als der des menschlichen Auges. Die Brennweite ist im Vergleich zum Normalobjektiv kürzer, so ergibt sich eine große Lichtstärke und eine große Schärfentiefe. Das Weitwinkelobjekt wird eingesetzt, um ein Bild plastischer darzustellen und Motive von einem nahen Kamerastandort abzubilden. Der Bildmaßstab verkleinert sich, um einen größeren Bereich optisch darzustellen– Gegenstände werden so mit einem Weitwinkel verkleinert. Eine Nahaufnahme von Personen führt jedoch zu Verzerrungen der Gesichtsproportionen.

Der Windkorb ist eine Schutzhülle für ein Mikrofon. Er wird meist bei der Filmproduktion im Außenbereich, vor allem bei einer erhöhten Windstärke, benutzt. Wird das Mikrofon bei solchen Witterungsverhältnissen ohne einen Windkorb benutzt, ist häufig ein störendes Rauschen zu hören. Bei einem Windkorb hingegen prallt der meiste Wind ab und verringert somit das Rauschen des Tons. Oft wird der Windkorb in Kombination mit einem Wolfsfell benutzt, welches als zusätzlicher Windfänger über den Windkorb gestreift wird.

Windows Media Video (WMV) ist ein proprietärer Video-Codec des Softwareherstellers Microsoft und vom Aufbau her ähnlich zu einer MPEG-4. Die WMV-Dateien können mit dem Windows Media Player, aber auch anderen Software-Playern und eigenständigen Hardware-Abspielgeräten decodiert werden. Dateien mit WMV-kodierten Videostreams, können neben der Dateiendung .wmv auch die Endung des Microsofts Container-Format Advanced Streaming Format .asf haben, in welchem die WMV-Datei eingebettet ist. Abhängig von der Komprimierungsrate bietet das Format Übertragungsraten von 96 kbit/s (176 x 144 Pixel – QCIF) bis 135 Mbit/s (1.920 x 1.080 Pixel – 1080p). Aufgrund dieser Variabilität, in Form von mehreren verschiedenen Einzelcodecs, ist die WMV-Datei für Internetstreams sowie auch für Filmaufnahmen in High Definition geeignet.

Sony brachte mit der XD-Cam quasi das Gegenstück zu der Digital Beta Cam auf den Markt. Dieses System steht für eine Aufzeichnung ohne Band und verwendet statt dessen die Sony Professional Disc, welche als Speichermedium eine qualitativ sehr gute Bildauflösung garantiert und durch ein spezielles Außengehäuse geschützt ist. Das Aufzeichnen mit der xd-cam ist vergleichsweise flexibeler als bei manchen anderen Videosystemen, da es in HD und SD möglich ist.

XLR ist die Abkürzung für Screen – Life – Return und bezeichnet einen Standart in der Filmproduktion zur Übertragung von Audiosignalen und Spannungsversorgung. Im Regelfall besteht ein XLR-Stecker aus drei Polen (Abschirmung, Leiter, Rückleiter). Gelegentlich kommen bei speziellen XLR-Kabeln auch bis zu sieben Pole vor. Die dreipolige Variante stellt jedoch den Standard in der analogen und digitalen Audioübertragung dar. XLR besitzt gegenüber der Klinke einige Vorteile. So kann es zum Beispiel nicht vorkommen, dass beim Anschluss eines XLR-Steckers (in die entsprechende Buchse) die Signale für kurze Zeit mit Masse in Berührung kommen. Außerdem besitzen die XLR-Stecker eine feste Steckverbindung mit einer Verriegelung. Besonders bei der symmetrischen Signalübertragung sind XLR-Kabel perfekt geeignet.

Z

Das Zeilensprungverfahren ist eine beinahe überall angewandte Technik zur Übertragung von Videobildern auf Fernsehschirme. Dabei wird nicht jedes Einzelbild für sich übertragen, sondern jeweils die Hälfte der Zeilen in zwei Halbbilder. Die Übertragungszeit eines Vollbildes ist dabei die Selbe. Mit dieser Technik wird das Bildflimmern stark minimiert. Außerdem wird die Bewegungsschärfe sehr viel besser. Dies kommt durch die Erhöhung der Übertragungsfrequenz die nun bei 50 Hz (50 Halbbilder/ Sekunde) liegt und das ohne eine Steigerung der Datenmenge. Leider kann dieses Verfahren nur bei Fernsehschirmen angewandt werden. Bei Computermonitoren ist es aufgrund baulicher Unterschiede leider nicht möglich das Zeilensprungverfahren anzuwenden.

Die Zeitlupe, auch Slow Motion genannt, ist ein Aufnahmeeffekt bei dem Bewegungsabläufe verlangsamt dargestellt werden. Bei dieser Methode werden mit der Kamera mehr als 25 Bilder pro Sekunde produziert. Wenn die Aufnahme später in normaler Geschwindigkeit abgespielt wird, verlangsamt sich der Bewegungsablauf und der Zeitlupeneffekt entsteht. Man löst also einen Vorgang bei der Aufnahme in mehr Einzelbilder pro Sekunde auf, als man anschließend bei der Wiedergabe zeigt. Videokameras zeichnen für diesen Effekt anstatt von 50 Halbbildern pro Sekunde 150 Halbbilder pro Sekunde auf. In der Postproduktion kann die Video-Zeitlupe nachträglich z.B mit einem Schnittsystem hergestellt werden, in dem die Einzelbilder auf dem Band jeweils mehrfach hintereinander abgespielt werden– Die Bilder werden so optisch verlangsamt dargestellt.

Der Zeitraffer ist eine filmische Methode, bei der die Kamera weniger als 25 Bilder pro Sekunde aufnimmt. Der Aufnahmeeffekt entsteht später bei der Wiedergabe mit normaler Geschwindigkeit: Bewegungsabläufe scheinen schneller abzulaufen, da die Bildfrequenz der Kamera im Verhältnis zur Abspielfrequenz herabgesenkt wurde. Soll z.B. ein Sonnenaufgang in 20 Sekunden gezeigt werden, der in Echtzeit 30 Minuten dauert, müsste etwa alle 3,5 Sekunden ein Bild aufgenommen werden. Im Zeitraffer können so langwierige Veränderungen in einer deutlich kürzeren Zeitspanne optisch hervorgehoben werden.

Mit einer Zoomfernbedienung lässt sich der Zoom nicht nur an dem Objektiv selbst, sondern ebenfalls aus einer gewissen Entfernung betätigen. Sie ist meist am Stativarm befestigt und erleichtert die Arbeitsweise des Kameramanns. So kann dieser beispielsweise beim Dreh eines Imagefilms, bei dem eine Kamerafahrt von einem Dolly aus erfolgt, die Brennweite bequem vom Stativarm aus einstellen, ohne das er das Objektiv dabei berühren muss. Je nach Modell kann anhand der Zoomfernbedienung ebenfalls die Aufnahme gestartet und gestoppt, sowie die Geschwindigkeit des Zooms eingestellt werden.

Mit einem Zoomobjektiv kann der Bildausschnitt der Kamera beliebig verändert werden. Das ermöglichen die zueinander verschiebbaren Linsen des Objektivs, welche so die Brennweite verändern können. Im weitwinkligen Bereich liegt hierbei die maximale Lichtstärke, danach fällt sie um rund eine halbe Blendenstufe.

X