Lade Inhalt...

Digitale drahtlose Kamerasysteme

©2003 Diplomarbeit 96 Seiten

Zusammenfassung

Inhaltsangabe:Einleitung:
Die Entwicklung und der Einsatz von drahtlosen Kameras ist bereits seit einigen Jahren ein aktuelles Thema in der Fernsehbranche. Analoge Systeme werden schon vergleichsweise häufig eingesetzt. Seit ungefähr einem Jahr erscheinen nun auch digitale Systeme auf dem Markt, die eine deutliche Verbesserung der Funkkameratechnik darstellen.
Die Grundidee hinter dem Einsatz von drahtlosen Kameras ist die Befreiung der Kamera vom Kabel. Die Übertragungsstrecke zwischen Kamera und CCU wird in der Regel mit einem Triaxkabel realisiert, was einige Probleme mit sich bringt, die in Kapitel 4.1.2 erläutert werden. Ziel ist es, die Bild- und Audiodaten ohne Kabel von der Kamera zur CCU zu übermitteln. Eine Funkstrecke soll den Kabelweg ersetzen und somit die Kamera von den Einschränkungen des Kabels befreien. Neben vielen praktischen Vorteilen entstehen dadurch auch neue bildgestalterische Möglichkeiten, da die Kamera jetzt Plätze erreichen kann, die mit Kabel nicht denkbar wären. So können mit Funkkameras Livebilder von fahrenden Schiffen, aus einem Flugzeug oder aus der Boxengasse bei Formel1-Rennen ebenso gesendet werden wie längere Gänge durch Türen oder Tunnels, die mit kabelgebundenen Kameras nur unter erheblichem Aufwand oder gar nicht möglich wären.
Mit der Verwendung einer Funkstrecke entstehen aber auch einige neue Probleme, die bei der Produktion berücksichtigt werden müssen. So ist naturgemäß die Störanfälligkeit eines Funkkanals wesentlich höher als die eines Kabels und auch bei der Bandbreite müssen Abstriche gemacht werden.
Ziel dieser Arbeit ist es, zunächst die technischen Grundlagen und die Funktionsweise der digitalen drahtlosen Kameratechnik umfassend darzulegen. Ergänzend dazu werden die Systeme der wichtigsten Hersteller in der Praxis getestet und im Hinblick auf Umsetzung der theoretischen Möglichkeiten, technische Leistungsfähigkeit und praktische Handhabung verglichen.
Schließlich wird untersucht,
– in welchen Bereichen die Deutsche Fernsehnachrichten Agentur (DFA) ein digitales drahtloses Kamerasystem einsetzen könnte,
– wie in dieser Hinsicht die Bedürfnisse der wichtigsten Kunden der DFA ausgeprägt sind,
– welches Modell dafür in Frage käme,
– welcher Nutzen, aber auch welche Kosten der Firma dadurch entstehen würden
– und ob sich die dauerhafte Anschaffung eines solchen Systems für die DFA lohnt.

Inhaltsverzeichnis:Inhaltsverzeichnis:
1.Kurzfassung9
2.Einleitung10
3.Methodik11
3.1Methodik des […]

Leseprobe

Inhaltsverzeichnis


ID 8120
Irion, Johannes: Digitale drahtlose Kamerasysteme
Hamburg: Diplomica GmbH, 2004
Zugl.: Hochschule der Medien (ehem. Hochschule für Druck und Medien Stuttgart (FH)),
Diplomarbeit, 2003
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte,
insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von
Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der
Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen,
bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung
dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen
der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik
Deutschland in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich
vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des
Urheberrechtes.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in
diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme,
dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei
zu betrachten wären und daher von jedermann benutzt werden dürften.
Die Informationen in diesem Werk wurden mit Sorgfalt erarbeitet. Dennoch können
Fehler nicht vollständig ausgeschlossen werden, und die Diplomarbeiten Agentur, die
Autoren oder Übersetzer übernehmen keine juristische Verantwortung oder irgendeine
Haftung für evtl. verbliebene fehlerhafte Angaben und deren Folgen.
Diplomica GmbH
http://www.diplom.de, Hamburg 2004
Printed in Germany

Inhalt
1 Kurzfassung
9
2 Einleitung
10
3 Methodik
11
3.1 Methodik des praktischen Vergleiches der Funkkamerasysteme
11
3.2 Methodik der Interviews
12
4 Grundlagen
13
4.1 Allgemeine Grundlagen
13
4.1.1 Einsatzgebiete von Livekameras
13
4.1.2 Probleme beim Einsatz von Livekameras
13
4.1.3 Vorteile drahtloser Kameratechnik
14
4.1.4 Grundlagen der Kameratechnik
14
4.1.5 Anforderungen an drahtlose Kameratechnik
15
4.1.6 Bisherige analoge Lösungen und deren Nachteile
16
4.1.7 Neue digitale Lösungen
16
4.2 Codierung
17
4.2.1 MPEG
17
4.2.2 Wavelet
20
4.2.3 DVCPro
21
4.3 Modulation und Fehlerschutz
22
4.3.1 Die grundlegenden Modulationsverfahren ASK, FSK und PSK
23
4.3.2 QPSK: Quaternary Phase Shift Key
23
4.3.3 QAM: Quadraturamplitudenmodulation
25
4.3.4 OFDM: Orthogonal Frequency Division Multiplex
26
4.3.5 Fehlerschutz
29
4.3.6 Reed-Solomon-Code (RS-Code)
30
4.3.7 Faltungscode
31
4.3.8 Punktierung
33
4.3.9 COFDM
34
4.3.10 Praktische Umsetzung bei DVB-T
35
4.3.11 Übertragungsrahmen
36
4.4 Funk
37
4.4.1 Grundlagen
37
4.4.2 Regulierungen
38
4.4.3 Übertragungskanäle
40
4.4.4 Diversity-Empfang
41
4.4.5 Alternativen
42
4.4.6 Gesundheitliche Auswirkungen
43
Inhalt
4

4.5 Empfang
44
4.5.1 Antenne
44
4.5.2 Receiver
44
4.6 Rückkanäle
46
5 Umsetzung bei digitalen drahtlosen Kamerasystemen
47
5.1 Prinzipielle Anordnung der Komponenten
47
5.2 Steuerbare Elemente
49
5.3 Signalstabilität gegen Bildqualität
52
5.3.1 Qualitätsverlust durch Datenreduktion und Kanalstörungen
52
5.3.2 Was ist ,,broadcasttaugliche" Bildqualität?
53
5.3.3 Kompromisslösung
54
5.4 Delay
55
5.5 Praktische Umsetzung
57
5.5.1 Aufgerüstete EB-Kameras
57
5.5.2 Vollständiger Funkkamerazug
57
6 Praktischer Vergleich
58
6.1 Ziel der Vergleichstests
58
6.2 Testsituation
59
6.3 LinkXP
61
6.3.1 Aufbau und Hintergrund
61
6.3.2 Sendeeinstellungen
62
6.3.3 Testlauf
62
6.3.4 Ausfallverhalten
63
6.3.5 Kosten
63
6.3.6 Fazit
63
6.4 Tandberg
65
6.4.1 Aufbau und Hintergrund
65
6.4.2 Sendeeinstellungen
66
6.4.3 Testlauf
67
6.4.4 Ausfallverhalten
67
6.4.5 Kosten
68
6.4.6 Fazit
68
6.5 BBC
70
6.5.1 Aufbau und Hintergrund
70
6.5.2 Sendeeinstellungen
71
6.5.3 Testlauf
71
6.5.4 Ausfallverhalten
72
6.5.5 Kosten
72
6.5.6 Fazit
72
Inhalt
5

6.6 Übersicht der Vergleichsergebnisse
75
6.7 Resümee
76
7 Anwendung bei der DFA
78
7.1 Ausgangssituation
78
7.2 Realisierungsmöglichkeiten
80
7.3 Finanzierung
83
7.4 Schlussfolgerung
84
8 Fazit und Ausblick
85
9 Anhang
87
9.1 Anhang I ­ Erläuterung Galois-Feld
87
9.2 Anhang II ­ Formular zur Dokumentation der Kamerapräsentationen
88
9.3 Anhang III ­ Interview mit Bernhard Jungwirth, Chefredakteur DFA
89
9.4 Anhang IV ­ Interview mit Sven Pahlow, Technischer Leiter DFA Studio Berlin
91
9.5 Anhang V ­ Interview mit Dipl.-Ing. Dietmar Fromm, Producer n-tv Außenübertragung 92
9.6 Anhang VI ­ Interview mit Frank Trautmann, Abteilungsleiter Kamera, SZM Berlin
94
10 Quellenverzeichnis
95
Inhalt
6

Abbildungsverzeichnis
Abb. 1: Blockschaltbild Kamerakopf.
14
Abb. 2: Zickzack-Scan bei MPEG.
18
Abb. 3: Blockbewegung zur Ermittlung des Bewegungsvektors v .
19
Abb. 4: Zusammenspiel der vorwärtsgerichteten und der bidirektionalen
Bildberechnung zur GOP-Bildung.
19
Abb. 5: Prinzip der Wavelet-Transformation.
20
Abb. 6: Beispiel für einen NRZ-Code und die entsprechend mit ASK, FSK oder PSK
modulierte Trägerfrequenz.
22
Abb. 7: Aufteilung des NRZ-Signals in Real- und Imaginäranteil.
23
Abb. 8: Blockschaltbild eines QPSK-Modulators.
24
Abb. 9: Zustandsdiagramm QPSK.
24
Abb. 10: Zustandsdiagramm 16QAM und 64QAM.
25
Abb. 11: Signalweg und Refl ektionen beim Empfang eines Funksignals.
26
Abb. 12: Funktionsweise des Schutzintervalles.
27
Abb. 13: Blockschaltbild OFDM.
Abb. 13:
Abb. 13:
28
Abb. 14: Spektralverteilung der OFDM-Subcarrier.
28
Abb. 15: Prinzip der Signalverarbeitung bei OFDM.
29
Abb. 16: Schema der Codewortbildung.
Abb. 16:
Abb. 16:
30
Abb. 17: Prinzip eines Faltungsencoders.
Abb. 17:
Abb. 17:
31
Abb. 18: Zustandsdiagramm Faltungsencoder.
31
Abb. 19: Trellisdiagramm.
32
Abb. 20: Zuordnung der Metrik bei Softdecision.
Abb. 20:
Abb. 20:
33
Abb. 21: Blockschaltbild eines COFDM-Encoders.
34
Abb. 22: Übersicht über die Frequenzspektren zwischen 1 kHz und 1.000 THz.
37
Abb. 23: Übersicht über Funklizenzen im Frequenzband von 400 MHz bis 2,7 GHz.
Abb. 23:
Abb. 23:
39
Abb. 24: Prinzip des Diversityempfanges.
41
Abb. 25: Auswertung der empfangenen Signale beim Diversityempfang.
Abb. 25:
Abb. 25:
42
Abb. 26: Blockschaltbild eines vollständigen Funkkamerasystems.
Abb. 26:
Abb. 26:
47
Abb. 27: Lageplan der Umgebung des DFA-Studios.
Abb. 27:
Abb. 27:
59
Abb. 28: Signalfl uss zwischen Konferenzraum und Regie der DFA.
Abb. 28:
Abb. 28:
60
Tab. 1: Profi le und Level bei MPEG-2.
Tab. 1:
Tab. 1:
17
Tab. 2: Mindeststörabstände zum Erreichen von BER = 2 · 10
-4
nach Viterbi.
40
Tab. 3: COFDM-Nutzdatenraten in MBit/s bei 8 MHz.
50
Tab. 4: Datenraten der bei Funkkameras gängigen Formate in MBit/s.
50
Tab. 5: Übersicht der Vergleichsergebnisse.
Tab. 5:
Tab. 5:
75
Tab. 6: Polynome zur Berechnung der Elemente des Galois-Feldes.
87
Abbildungsverzeichnis
7

Abkürzungsverzeichnis
ASK
Amplitude Shift Key
BER
Bit Error Rate
BOS
Behörden und Organisationen mit Sicherheitsaufgaben
COFDM
Coded Orthogonal Frequency Division Multiplex
CSI
Channel State Information
DCT
Discrete Cosinus Transformation
DFT
Discrete Fourier Transformation
EIRP
Equivalent Isotropically Radiated Power
FEC
Forward Error Correction
FSK
Frequency Shift Key
GOP
Group of Pictures
IDFT
Inverse Discrete Fourier Transformation
ISI
Intersymbol Interference
ISM
Industrial, Scientifi c and Medicine
NRZ
No Return to Zero
OFDM
Orthogonal Freqency Division Multiplex
PSK
Phase Shift Key
QAM
Quadrature Amplitude Modulation
QEF
Quasi Error Free
QPSK
Quaternary Phase Shift Key
RS
Reed-Solomon
SNG
Satellite News Gathering
SNR
Signal to Noise Ratio
TBC
Time Base Corrector
TPS
Transmission Parameter Signalling
Abkürzungsverzeichnis
8

1 Kurzfassung
Fernsehliveübertragungen werden in der Regel mit Kameras realisiert, die ihr Bildsignal und
gegebenenfalls auch Ton über ein Triaxkabel zur Regie übertragen. Dadurch ist die Bewegungs-
freiheit der Kamera und damit auch die gestalterische Freiheit stark eingeschränkt. Drahtlose
Kamerasysteme ersetzen den Kabelweg durch eine Funkstrecke. Entscheidend für die Qua-
lität des Systems ist dabei die Art der Funkübertragung. Analoge drahtlose Kamerasysteme
modulieren das zu übertragende Signal im Frequenzmodulationsverfahren auf eine einzelne
Trägerfrequenz und sind, um Störungen durch Echos zu vermeiden, auf eine gerichtete Funk-
verbindung angewiesen. Die Grundlage digitaler drahtloser Kamerasysteme ist in Anlehnung
an den DVB-Standard zur terrestrischen TV-Übertragung das COFDM-Verfahren, bei dem das
zu übertragende digitale Signal komprimiert zusammen mit verschiedenen Fehlerschutzverfah-
ren auf mehreren tausend Trägern gleichzeitig übertragen wird. Die Modulation der einzelnen
sogenannten Subcarrier geschieht dabei wahlweise mit Quadratur-Phasen-Modulation (QPSK)
oder Quadratur-Amplituden-Modulation (QAM). Die Bewegungsfreiheit der Kamera ist dadurch
größer als bei einem analogen System, da mit diesem Verfahren durch Echos hervorgerufene
Empfangsstörungen kompensiert oder sogar zur Signalverbesserung verwendet werden können
und somit keine gerichtete Funkverbindung nötig ist. Im Vergleich zum Triaxkabel steht bei der
Funkübertragung nach dem DVB-T Standard mit 8 MHz eine vergleichsweise geringe Bandbrei-
te zur Verfügung innerhalb derer mit COFDM Datenraten bis zu 30 MBit/s übertragen werden
können. Da das Nutzsignal in digitaler Form vorliegt, kann es mit den üblichen Codierverfahren
wie MPEG, DVCPro oder Codes auf Wavelet-Basis komprimiert und reduziert werden.
Mehrere europäische Hersteller entwickeln derzeit digitale drahtlose Kamerasysteme. Ein
praktischer Vergleich der aktuellen Systeme der Firmen Link Research, Tandberg und BBC zeigte,
dass sich alle Modelle auf einem vergleichbaren Entwicklungsstand befi nden, sich jedoch durch
unterschiedliche Stärken und Schwächen für verschiedene Einsatzformen eignen. Zu den Merk-
malen, die für einen Einsatz in der Praxis entscheidend sind, gehört unter Anderem die Gesamt-
verzögerung des Systems, die durch die Codier- und Modulationsvorgänge verursacht wird und
als Delay bezeichnet wird. Der Delay liegt je nach Modell zwischen einem und zwölf Frames,
also bei 40 bis 360 ms. Je nach dem vom Hersteller entwickelten Codierverfahren und der Bau-
weise der Sende- und Empfangseinheiten unterscheiden sich die Systeme auch hinsichtlich der
übertragbaren Datenrate, der Signalstabilität und der Reichweite der Funkstrecke.
1 Kurzfassung
9

2 Einleitung
Die Entwicklung und der Einsatz von drahtlosen Kameras ist bereits seit einigen Jahren ein
aktuelles Thema in der Fernsehbranche. Analoge Systeme werden schon vergleichsweise häufi g
eingesetzt. Seit ungefähr einem Jahr erscheinen nun auch digitale Systeme auf dem Markt, die
eine deutliche Verbesserung der Funkkameratechnik darstellen.
Die Grundidee hinter dem Einsatz von drahtlosen Kameras ist die Befreiung der Kamera
vom Kabel. Die Übertragungsstrecke zwischen Kamera und CCU wird in der Regel mit einem
Triax kabel realisiert, was einige Probleme mit sich bringt, die in Kapitel 4.1.2 erläutert werden.
Ziel ist es, die Bild- und Audiodaten ohne Kabel von der Kamera zur CCU zu übermitteln. Eine
Funkstrecke soll den Kabelweg ersetzen und somit die Kamera von den Einschränkungen des
Kabels befreien. Neben vielen praktischen Vorteilen entstehen dadurch auch neue bildgestal-
terische Möglichkeiten, da die Kamera jetzt Plätze erreichen kann, die mit Kabel nicht denkbar
wären. So können mit Funkkameras Livebilder von fahrenden Schiffen, aus einem Flugzeug oder
aus der Boxengasse bei Formel1-Rennen ebenso gesendet werden wie längere Gänge durch
Türen oder Tunnels, die mit kabelgebundenen Kameras nur unter erheblichem Aufwand oder
gar nicht möglich wären.
Mit der Verwendung einer Funkstrecke entstehen aber auch einige neue Probleme, die bei
der Produktion berücksichtigt werden müssen. So ist naturgemäß die Störanfälligkeit eines
Funkkanals wesentlich höher als die eines Kabels und auch bei der Bandbreite müssen Abstriche
gemacht werden.
Ziel dieser Arbeit ist es, zunächst die technischen Grundlagen und die Funktionsweise der
digitalen drahtlosen Kameratechnik umfassend darzulegen. Ergänzend dazu werden die Syste-
me der wichtigsten Hersteller in der Praxis getestet und im Hinblick auf Umsetzung der theore-
tischen Möglichkeiten, technische Leistungsfähigkeit und praktische Handhabung verglichen.
Schließlich wird untersucht,
­ in welchen Bereichen die Deutsche Fernsehnachrichten Agentur (DFA) ein digitales draht-
loses Kamerasystem einsetzen könnte,
­ wie in dieser Hinsicht die Bedürfnisse der wichtigsten Kunden der DFA ausgeprägt sind,
­ welches Modell dafür in Frage käme,
­ welcher Nutzen, aber auch welche Kosten der Firma dadurch entstehen würden
­ und ob sich die dauerhafte Anschaffung eines solchen Systems für die DFA lohnt.
2 Einleitung
10

3 Methodik
Das Kapitel 4 beschreibt die verschiedenen technischen Verfahren die die Grundlage für Digitale
Drahtlose Kameratechnik bilden. Die dafür nötigen Informationen wurden durch Recherche in
Fachliteratur, Produktpräsentationen der entsprechenden Hersteller und im Internet gewonnen.
Kapitel 5 stellt das Funktionsprinzip und den Aufbau digitaler drahtloser Kamera systeme (im
folgenden kurz Funkkamerasysteme genannt) vor. Basis hierfür bilden die allgemeinen tech-
nischen Grundlagen aus Kapitel 4 im Zusammenhang mit den Produktbeschreibungen der
Hersteller und der praktischen Anwendung der Systeme, die in Kapitel 6 miteinander verglichen
werden, um einen Überblick über den aktuellen Stand der Technik zu erhalten und den Nutzen
eines Funkkamerasystems für die DFA beurteilen zu können. Die Bedürfnisse der DFA und ihrer
Kunden in Bezug auf Funkkamerasysteme werden in Kapitel 7 anhand von im Anhang einseh-
baren Interviews mit DFA-Mitarbeitern und Kunden ermittelt. Diese werden anschließend den
Ergebnissen des praktischen Vergleiches gegenübergestellt, woraus eine Empfehlung für oder
gegen eine Investition in ein Funkkamerasystem und gegebenenfalls auch für die Auswahl des
passenden Modelles abgeleitet wird.
3.1 Methodik des praktischen Vergleiches der Funkkamerasysteme
Um einen repräsentativen Überblick über den aktuellen Stand der Technik auf dem Gebiet
digitaler drahtloser Kamerasysteme zu erlangen, wurden fünf führende europäische Hersteller
solcher Systeme telefonisch und per Email eingeladen, ihre aktuellen Produkte zu präsentieren.
Namentlich waren dies Tandberg Television AVS Media GmbH, Link Research Ltd., BBC Ventu-
res Group, Thomson Broadcast & Media Solutions und Gigawave Ltd. Die drei erstgenannten
kamen der Einladung direkt oder über ihre Vertretungen in Deutschland nach.
Um die Systeme miteinander vergleichen zu können, wurden alle unter gleichen Bedingun-
gen, die im einzelnen in Kapitel 6.2 aufgeführt sind, im DFA-Studio Berlin am Pariser Platz getes-
tet. Dabei wurden folgende Punkte schriftlich festgehalten: der zum Aufbau des Systems nötige
Arbeitsaufwand, die verwendeten Sendeparameter, die Art des verarbeiteten Videosignals, die
Empfangsreichweite und das Ausfallverhalten. Ein Muster des verwendeten Formulars fi ndet sich
im Anhang II.
Zur Ermittlung der Empfangsreichweite und -stabilität sowie des Ausfallverhaltens des Sys-
tems wurden die Empfangsantennen an einem Fenster im ersten Obergeschoss positioniert und
ein Kameramann bewegte sich nach Inbetriebnahme mit der Kamera über den Pariser Platz und
die umgebenden Straßen, bis die Signalverbindung abbrach. Eine genaue Beschreibung der
Testläufe fi ndet sich in den Kapiteln 6.3, 6.4 und 6.5.
3 Methodik
11

3.2 Methodik der Interviews
Für die Durchführung der Interviews wurde zunächst jeweils ein Fragebogen für die DFA-
Mitarbeiter und die Kunden erstellt. Die Interviews wurden in persönlichen oder telefonischen
Gesprächen geführt. Als DFA-Mitarbeiter wurden der Chefredakteur und der Technische Leiter
des DFA-Studios Berlin interviewt. Auf Seite der Kunden wurden Personen aus dem Bereich
Außen übertragung der beiden regelmäßigsten Auftraggeber der DFA befragt. Alle Interviews
sind in den Anhängen III bis VI zu fi nden.
3 Methodik
12

4 Grundlagen
4.1 Allgemeine Grundlagen
4.1.1 Einsatzgebiete von Livekameras
Livekameras kommen sowohl im Studio wie auch bei Außenübertragungen zum Einsatz. Im
Nachrichtenbereich handelt es sich dabei meistens um kurze Reporterschalten mit einer Ka-
mera. Aufwändiger sind Produktionen mit mehreren Livekameras, die hauptsächlich im Unter-
haltungsbereich vorkommen. Dabei handelt es sich zum Einen um Talk- und Unterhaltungs-
shows, die überwiegend im Studio produziert werden. Sportereignisse, Konzerte und andere
Bühnenveranstaltungen aber auch Pressekonferenzen fi nden dagegen in der Regel außerhalb
des Studios statt und stellen eine besondere Herausforderung für Liveübertragungen dar, da
sämtliche für die Übertragung notwendige Technik vor Ort installiert werden muss. Zudem sind
bei dieser Art von Veranstaltungen fast immer eine große Zahl Menschen vor Ort, ob nun als
Passanten, Teilnehmer oder Zuschauer, was beim Aufbau nicht unbeachtet bleiben darf.
4.1.2 Probleme beim Einsatz von Livekameras
Der Einsatz von Livekameras bringt verschiedene Probleme mit sich, die zum Teil durch den
im Nachrichtenbereich oft vorhandenen Zeitdruck und zum Teil durch anwesende Passanten,
Zuschauer oder größere Menschenmassen bedingt sind.
Bei einer Live-Produktion muss eine Kamera prinzipiell permanent ein Bild an die Regie liefern,
ohne zwischendurch die Verbindung zu verlieren oder ausgeschaltet zu werden. Beim Ausschal-
ten gehen sämtliche Einstellungen wie Weiß- und Schwarzabgleich, Gammawerte usw. verloren,
sofern sie nicht am Remote Control Panel (RCP) gespeichert werden können, und müssen beim
Einschalten erst wieder eingestellt werden, was im Produktionsbetrieb zeitlich oft nicht möglich
ist. Zudem muss sich der Regisseur darauf verlassen können, dass jede Kamera immer verfügbar
ist, um nicht in der Bildgestaltung eingeschränkt zu sein.
Die üblicherweise eingesetzten kabelgebundenen Kameras sind durch das Kabel entspre-
chend in ihrer Bewegungsfreiheit eingeschränkt. Soll sich die Kamera während einer Produktion
über weitere Strecken bewegen, so muss von Anfang an sichergestellt sein, dass genug Kabel
frei beweglich zur Verfügung steht, da es während der laufenden Produktion oft nicht mehr
nachgezogen werden kann.
Komplizierte Kabelwege führen zu langen Aufbauzeiten, was vor allem im Nachrichtenbereich
ein Problem sein kann. Straßen, Eisenbahnschienen und auch Türen stellen teilweise un über-
windbare Hindernisse dar. In öffentlich zugänglichen Bereichen können Kabel nicht ohne
weiteres verlegt werden sondern müssen mit Kabelmatten oder -brücken oder durch Abkleben
so gesichert sein, dass sie keine Gefahr für Passanten darstellen. Das kann besonders bei Groß-
veranstaltungen oder an Orten mit vielen Passanten zu erheblichem Aufwand führen.
Auch beim Abbau verursachen die Kabel meist den größten Aufwand. Bei schlechtem Wetter
müssen sie oft erst geputzt werden, durch Verdrehen oder Verheddern mit anderen Kabeln
entsteht zusätzliche Arbeit.
4 Grundlagen
13

Nicht zu unterschätzen ist auch das Gewicht von Kabeltrommeln mit mehreren hundert
Meter Länge, denn gerade beim Beladen von Übertragungswagen zählt oft jedes Kilogramm,
da diese meist bis zur Belastungsgrenze gefüllt sind.
4.1.3 Vorteile drahtloser Kameratechnik
Ohne an ein Kabel gebunden zu sein hat eine Kamera wesentlich mehr Bewegungsfreiraum.
Stellen, die für ein Kabel ein unüberwindbares Hindernis waren, haben auf eine Produktion mit
drahtlosen Kameras keinen Einfl uss. So können Schienen und Straßen mühelos überbrückt wer-
den und auch Türen stellen nicht mehr unbedingt ein Hindernis dar.
Livebilder aus fahrenden Autos, von Schiffen oder auch aus fl iegenden Flugzeugen oder
Hubschraubern eröffnen ganz neue Produktionsmöglichkeiten. Die Auf- und Abbauzeiten
verkürzen sich erheblich. Sender und Empfänger müssen nur eingeschaltet werden, damit die
Kamera sendebereit ist. Das kann besonders im Nachrichtenbereich von erheblichem Vorteil
sein. Und schließlich fällt auch die Gefährdung von Passanten weg.
4.1.4 Grundlagen der Kameratechnik
Eine Fernsehkamera besteht aus drei grundlegenden Elementen: Optik, Kamerakopf und
Adapter. In der Optik befi nden sich verschiedene Linsengruppen zur Fokussierung und zur Ver-
änderung des Abbildungsmaßstabes sowie die Blende.
Im Kamerakopf wird das optische Bild in ein elektronisches Signal umgesetzt. Dazu befi ndet
sich direkt am Eingang des Kamerakopfes ein Prisma zur Strahlenteilung, welches das einfallen-
de Bild in drei genau identische optische Strahlengänge aufteilt, die blau, rot und grün gefi ltert
werden. Diese werden jeweils einem CCD-Chip zugeführt, der das einfallende Licht in elektri-
sche Spannungswerte umsetzt. Die Spannungswerte werden von Sample-and-Hold-Schaltung-
en (S/H) nach dem Interline- oder Frame-Interline-Verfahren (Details z. B. in [Webers, S. 144])
Abb. 1: Blockschaltbild Kamerakopf nach [Webers, S. 206].
4 Grundlagen
14

zeilenweise aus dem Chip ausgelesen, wobei jedoch nicht zwangsläufi g jede Chipzeile einer
Bildzeile entsprechen muss. Je nach Bauart des Chips können auch zwei Chipzeilen beim Aus-
lesen zu einer Bildzeile interpoliert werden. Dadurch entsteht bereits die Grundlage für eine
Verarbeitung des Bildes nach dem Zeilensprungverfahren und die Trennung in Halbbilder. Über
die Weißbegrenzer im roten und blauen Kanal kann die Farbtemperatur geregelt werden. Jedes
der drei Signale wird danach in einem Kanalverstärker verstärkt. Durch Summenbildung wer-
den die Steuerwerte für die Weißbegrenzer ermittelt. Zusammen verlassen die drei Signale den
Kamerakopf über das 25pin-Interface als RGB-Signal. Viele Kameraköpfe geben darüber hinaus
das Signal gleichzeitig auch noch als analoge Komponenten YUV ab.
Der an den Kamerakopf angedockte Adapter bereitet das Signal entsprechend des weite-
ren Verwendungszweckes auf. Es wird zum Beispiel abgetastet und quantisiert für die Weiter-
verarbeitung als SDI-Signal oder codiert und moduliert für eine Übertragung per Funk.
4.1.5 Anforderungen an drahtlose Kameratechnik
Um als vollwertiger Ersatz für eine herkömmliche Triaxkamera eingesetzt werden zu können,
muss eine Funkkamera zusätzlich zu ihren typischen Vorteilen auch die wichtigsten Eigen-
schaften einer Triaxkamera übernehmen. Zum zählbaren Vorteil wird die höhere Beweglichkeit
im Vergleich zum Kabel nämlich erst, wenn auch die Reichweite der Funkstrecke mindestens
genauso weit reicht, wie ein Triaxkabel, besser noch sogar erheblich weiter.
Störungen oder Signalausfälle dürfen nicht stärker oder häufi ger auftreten als bei einer Signal-
übertragung per Kabel. Die Kameraführung darf durch die für den Funk nötige Technik nicht
mehr behindert werden, als sie es durch ein Kabel wäre. Und auch der Personalaufwand sollte
sich beim Einsatz von Funkkameras reduzieren, da zum Beispiel keine Kabelhilfen mehr benötigt
werden.
Für den Einsatz in Produktionen zusammen mit kabelgebundenen Kameras ist es darüber
hinaus wichtig, dass Bedienung und Funktionalität sich nicht wesentlich von einer Triaxkamera
unterscheiden. So sollte auch eine Funkkamera über ein Remote Control Panel bildtechnisch
steuerbar sein und der Kameramann muss eine Möglichkeit haben, die Kommandos aus der
Regie zu hören.
Die per Funk übertragene Bild- und Tonqualität müssen broadcasttauglich sein und vor allem
das Bildsignal muss ohne eine Verzögerung im Vergleich zu den Triaxkameras in der Regie an-
kommen, damit ohne Probleme zwischen Funk- und Triaxkamera geschnitten werden kann.
Die meisten Triaxkameras bieten 2 Audiokanäle an. Auch diese Qualität sollte eine Funkkamera
vor allem für Einkameraproduktionen übernehmen.
Und schließlich ist auch ein Rückbildkanal von großem Vorteil.
4 Grundlagen
15

4.1.6 Bisherige analoge Lösungen und deren Nachteile
Die bisher eingesetzten Systeme basierten im Wesentlichen auf analoger HF-Technik. Dabei wird
ein FBAS-Signal im Frequenzmodulationsverfahren auf eine Trägerfrequenz im Mikrowellen-
Bereich moduliert. Für diese Art der Signalübertragung ist im Vergleich zur Digitaltechnik eine
wesentlich höhere Bandbreite nötig. Um einen geeigneten Signalrauschabstand zu erzielen,
müssen Sendeleistungen von mindestens 1 W verwendet werden [Trow], was im Vergleich zu
Trow
Trow
den digitalen Systemen, die mit einer Sendeleistung von 100 mW auskommen, eine unverhält-
nismäßig größere Gesundheitsbelastung für den Kameramann darstellt. Da Signalechos den
Empfang stören würden, werden sowohl für den Sender als auch für den Empfänger Richt-
antennen verwendet. Das bedeutet aber einerseits einen hohen Personalaufwand und anderer-
seits trotzdem eine gewisse Störanfälligkeit. Bewegt sich die Kamera und mit ihr der Sender,
bricht das Signal ab, bis beide Antennen wieder neu aufeinander ausgerichtet wurden. Das
heißt, dass neben dem Kameramann noch zwei weitere Personen beschäftigt sind, die ständig
die Antennen nachführen. Für eine Richtfunkverbindung ist es zudem nötig, dass Sichtkontakt
zwischen Sender und Empfänger besteht. Wird dieser unterbrochen, kann auch kein Signal
mehr übertragen werden. So stellt zum Beispiel schon eine Person, die in die Sendestrecke läuft,
eine Gefahr für die Signalstabilität dar. Eine Verbindung um Hausecken oder andere Hindernisse
herum ist vollkommen undenkbar.
4.1.7 Neue digitale Lösungen
Der grundlegende Vorteil digitaler Funkkamerasysteme ist, dass das Signal omnidirektional
abgesendet wird und der Empfänger sich dieses aus den empfangenen Echos und Störungen
zusammensetzt beziehungsweise herausfi ltert, also nicht auf eine direkte Sichtverbindung an-
gewiesen ist. Das genaue Verfahren wird in Kapitel 4.4.4 beschrieben. So reicht an Personal ein
Kameramann zur Bedienung, da die Antennen keine weitere Betreuung benötigen. Ein weiterer
Vorteil liegt darin, dass die Bildqualität zunächst bis zum Unterschreiten der Störschwelle kon-
stant hochwertig bleibt und nicht durch Bildrauschen gestört wird. Unterhalb dieser Schwelle
bricht das Bild dann jedoch sofort vollständig ab.
Die Funktionsweise der Signalübertragung bei digitalen drahtlosen Kameras beruht im We-
sentlichen auf den Festlegungen des Digital Video Broadcasting Projects, DVB. Dieses Konsor-
tium aus ca. 300 Sendern, Herstellern, Netzwerkbetreibern und Regulierungsorganisationen
entwickelt Standards zur Modulation, Ausstrahlung und Übertragung digitaler Fernsehsignale.
Dabei gibt es unterschiedliche Spezifi kationen für die verschiedenen Übertragungswege. DVB-C
ist der Standard für die Verbreitung im Kabelnetz, DVB-S beschreibt die Eigenschaften für Satelli-
tenstrecken und DVB-T schließlich stellt den Standard für digitale terrestrische Ausstrahlung dar,
worunter auch digitale Funkkameraanwendungen fallen.
4 Grundlagen
16

4.2 Codierung
4.2.1 MPEG
Die Abkürzung MPEG steht für Moving Pictures Expert Group und bezeichnet nicht einen spe-
ziellen Algorithmus zur Datenkompression sondern vielmehr eine Ansammlung verschiedener
standardisierter Möglichkeiten, Daten zu komprimieren und zu reduzieren. Die für den Broad-
cast-Bereich verwendeten Elemente sind im MPEG-2 Standard zusammengefasst. Um die vielen
sehr unterschiedlichen Anwendungen innerhalb des MPEG-2 Standards übersichtlich zuordnen
zu können, ist dieser in sogenannte Profi le und Level unterteilt. Die Profi le unterscheiden sich im
Wesentlichen durch die Komplexität der Kompression, während die Level vor allem die Bildgrö-
ße und Aufl ösung beschreiben.
Profi le
Level
Main
4 : 2 : 2
High
High
4 : 2 : 0
1920 x 1152
90 MBit/s
4 : 2 : 0 oder 4 : 2 : 2
1920 x 1152
100 MBit/s
High 1440
4 : 2 : 0
1440 x 1152
60 MBit/s
4 : 2 : 0 oder 4 : 2 : 2
1440 x 1152
80 MBit/s
Main
4 : 2 : 0
720 x 576
15 MBit/s
4 : 2 : 2
720 x 608
50 MBit/s
4 : 2 : 0 oder 4 : 2 : 2
720 x 576
20 MBit/s
Low
4 : 2 : 0
352 x 288
4 MBit/s
Tab. 1: Profi le und Level bei MPEG-2 nach [Watkinson, S. 20].
Tab. 1:
Tab. 1:
Das Hauptmerkmal von MPEG-2 ist die Möglichkeit, neben redundanten Informationen
innerhalb eines Bildes auch zeitlich redundante Anteile, die sich aus der Abfolge der Bilder erge-
ben, zur Kompression zu nutzen. Bei der Intraframe-Codierung, die auch von anderen Verfah-
ren verwendet wird, werden örtlich redundante, also im Bild benachbarte Pixel mit ähnlichen
Werten, zum Beispiel große Flächen Blau im Himmel, mit Laufl ängen- oder Huffman-Codierung
zusammengefasst.
Zeitlich redundant sind Bildinhalte, die in mehreren aufeinander folgenden Bildern unverän-
dert an derselben Stelle bleiben. Bildet man die Differenz zweier aufeinander folgender Bilder,
erhält man ein sogenanntes Differenzbild, das lediglich die Änderungen von Bild 1 zu Bild 2
enthält. Überträgt man nur Bild 1 und die Differenz, kann der Empfänger daraus wieder Bild 2
zusammensetzen. Bei MPEG-2 handelt es sich um einen asymmetrischen Codec. Der Encodier-
4 Grundlagen
17

vorgang ist technisch und zeitlich aufwendiger als das Decodieren. Der Encoder verarbeitet das
Signal intelligent je nach Inhalt unterschiedlich, wohingegen der Decoder nur automatisch den
standardisierten Bitstrom decodiert [Watkinson, S. 1].
Bei der Intraframe-Codierung wird das Bild nicht komplett in einem Schritt verarbeitet,
sondern in Blöcken zu jeweils 8 x 8 Pixeln zusammengefasst, die wiederum in Macroblöcken
zu 8 x 8 Pixelblöcken zusammengefasst sind. Jeder dieser Blöcke wird einer Diskreten Cosinus
Transformation (DCT) unterzogen. Dadurch ergibt sich für jeden Block eine Matrix mit 8 x 8
Werten, die die im Block vorkommenden Ortsfrequenzen darstellen, wobei große Werte grobe
Bildstrukturen und kleine Werte feine Bildstrukturen repräsentieren. Durch die DCT bedingt
stehen die großen Werte mit hoher Wahrscheinlichkeit weiter links oben in der Matrix, während
rechts unten vor allem kleine Werte oder Nullen stehen. Erneutes Quantisieren der Matrix führt
zu einer verlustbehafteten Datenkompression und dazu, dass weitere Werte rechts unten zu Null
gesetzt werden.
Abb. 2: Zickzack-Scan bei MPEG.
Um sicherzustellen, dass zunächst möglichst viele große Werte verarbeitet werden, wird die
Matrix im Zickzackscan abgetastet. Ähnliche Werte werden verlustfrei Laufl ängencodiert, die
Nullen am Ende werden nicht alle übertragen, sondern zu einem ,,End of Block"-Symbol zusam-
mengefasst.
4 Grundlagen
18

Abb. 3: Blockbewegung zur Ermittlung des Bewegungsvektors v
Blockbewegung zur Ermittlung des Bewegungsvektors v nach [Watkinson, S. 111].
Die Verarbeitung in Blöcken ermöglicht das Verfahren der Bewegungskompensation. Beim
Vergleich zweier aufeinander folgender Bilder wird analysiert, an welche Stelle im Bild sich der
Inhalt eines Blockes bewegt hat, indem er im zweiten Bild so lange über die benachbarten Pixel
geschoben wird, bis die größte Übereinstimmung festgestellt wird. Für die Bewegung wird ein
zweidimensionaler Bewegungsvektor v ermittelt, der im Differenzbild gespeichert wird.
Da Objekte bei Bewegung normalerweise auch ihre abgebildete Form verändern, wird
zusätzlich ein Vorhersagefehler im Differenzbild gespeichert. Der Encoder erstellt dazu in einem
eigenen Decoder das vorhergesagte Bild 2 aus Bild 1 und den berechneten Bewegungsvektoren
und vergleicht dieses mit dem tatsächlichen Bild 2. Die Abweichungen werden als Vorhersage-
fehler mit dem Differenzbild übertragen. So entsteht eine Art gegenseitige Korrektur zwischen
berechneten Vektoren und tatsächlich aufgetretenen Abweichungen.
Da bei schnellen Veränderungen im Bildinhalt, zum Beispiel bei harten Schnitten, die Vorher-
sage schlecht bis gar nicht funktioniert, muss eine Mischung aus realen, nur intraframe kompri-
mierten Bildern (I) und vorhergesagten (prädizierten) Bildern (P) übertragen werden. Dabei sind
immer alle P-Bilder nur mit ihrem vorhergehenden I-Bild zusammen als Group of Pictures (GOP)
verwendbar.
Abb. 4: Zusammenspiel der vorwärtsgerichteten und der bidirektionalen Bildberechnung zur GOP-
Bildung nach [Watkinson, S. 185].
4 Grundlagen
19

Ein Problem der Vorausberechnung ist, dass so lediglich bereits vorhandene Bildinhalte
dargestellt werden können. Hintergrund, der durch die Bewegung eines Objektes freigegeben
wird, kann so nicht berechnet werden. Um dies zu ermöglichen, können innerhalb einer GOP
bidirektional berechnete B-Bilder eingefügt werden. Diese werden entweder mit Bewegungs-
kompensation und Vorhersagefehler oder durch einfache Mittelwertbildung aus I- oder P-
Bildern erzeugt. Bei der Decodierung muss allerdings das nachfolgende I- oder P-Bild für die Be-
rechnung des B-Bildes vorhanden sein. Daher werden die Bilder einer GOP für die Über tragung
immer so umsortiert, dass zuerst das I-Bild und die P-Bilder übertragen werden und dann die
B-Bilder.
Je mehr Bilder in einer Group of Pictures zusammengefasst sind, um so höher ist die Kom-
pressionsrate. Allerdings steigt damit auch die Verzögerung des Systems, da der Codieraufwand
steigt und beim Decodieren immer erst eine komplette GOP empfangen werden muss, bevor
sie decodiert und dargestellt werden kann.
Das MPEG-2 Main Level gibt als maximale Datenrate 15 MBit/s vor (siehe Tab. 1). Die Frage
nach einer für eine ,,broadcasttaugliche" Bildqualität minimal nötigen Datenrate wird im Kapitel
5.3.2 näher erörtert.
4.2.2 Wavelet
Im Gegensatz zur MPEG-Codierung wird das Signal beim Wavelet-Verfahren nur intraframe co-
diert. Es ist daher wesentlich schneller in der Verarbeitung, da nicht erst mehrere Bilder in einen
Speicher eingelesen werden müssen, um die GOPs zu bilden.
Abb. 5: Prinzip der Wavelet-Transformation nach [Körner, S. 2].
Das Bild wird jeweils einmal in horizontaler und vertikaler Richtung bearbeitet. Beide Male
werden zunächst mittels einer sogenannten ,,Haarfunktion" jeweils der Mittelwert und die Dif-
ferenz zweier benachbarter Bildpunkte gebildet. Diese Werte werden dann unterabgetastet und
in einen Hoch- und einen Tiefpassanteil getrennt. Der Tiefpassanteil ist wieder ein normales Bild,
nur mit halb so hoher Aufl ösung wie das Ausgangsbild. Die drei Hochpassanteile stellen jeweils
nur die feinen Strukturen des Ausgangsbildes in horizontaler, vertikaler und diagonaler Richtung
4 Grundlagen
20

dar. Bei der nächsten Iterationsstufe ist das Vorgehen wieder dasselbe [Körner, S. 2f].
Körner, S. 2f
Körner, S. 2f
Die Hochpassanteile lassen sich sehr gut mit Laufl ängen- und Huffman-Codierung komprimie-
ren. Bereits durch diese verlustfreie Kompression sind Kompressionsraten bis 1 : 5 erreichbar.
Durch verlustbehaftetes Quantisieren der Hochpassanteile kann die Kompressionsrate bis auf
1 : 500 gesteigert werden.
Im Gegensatz zu MPEG wird außerdem nicht das ganze Bild mit einer einheitlichen Fre-
quenz abgetastet, sondern die Abtastfrequenz wird in bestimmten Schritten der Bildfrequenz
angepasst. Da zudem die Funktionen für die Abtastung der Tiefpassanteile nur eine endliche
Ausdehnung besitzen, entstehen keine Fenstereffekte wie bei der Verwendung unendlicher Funk-
tionen wie DFT oder DCT. Codierungsfehler erscheinen als weißes Rauschen über das ganze Bild
verteilt [Watkinson, S. 110]. So ist mit der Wavelet-Codierung im Vergleich zu einzelnen JPEG-
Bildern eine wesentlich höhere Kompressionsrate bei gleicher subjektiver Bildqualität zu erzie-
len. Die letztendliche Datenrate hängt von der Anzahl der Iterationsstufen ab. Im Gegensatz zu
MPEG und DVCPro gibt es bei Wavelet keine standardisierte Datenrate.
4.2.3 DVCPro
DVCPro ist im Bereich der DV-Formate der für Broadcast-Anwendungen vorgesehene Standard.
Während DV und Mini-DV hauptsächlich im Consumer-Bereich Verwendung fi nden und mit
einem 4:2:0 Signal arbeiten, ist DVCPro auf die Verarbeitung von 8 Bit tiefen 4:1:1-Signalen
ausgelegt. Für höherwertige Qualität steht der Standard DVCPro50, der 4:2:2-Signale verarbei-
tet [Mücher]. Dieser ist wegen seiner relativ geringen Kompressionsrate von 1 : 3,3 aber nicht für
Mücher
Mücher
drahtlose Kamerasysteme geeignet.
Wie die Wavelet-Codierung verwendet DVCPro keine zeitliche Komprimierung sondern aus-
schließlich Intraframe-Codierung. Dadurch hat auch DVCPro gegenüber MPEG einen Vorteil bei
der Codierungsdauer, der auch hier aber wieder durch die niedrigere Kompressionsrate ausge-
glichen wird.
Grundlage aller DV-Verfahren ist die Diskrete Cosinus Transformation (DCT). Das zu codie-
rende Bild wird in Blöcken zu 8 x 8 Pixeln bearbeitet. Jeder dieser Blöcke wird einer DCT unter-
zogen und anschließend quantisiert. Die Pixelblöcke werden dann zu Macroblöcken zusammen-
gefasst. Im Fall von DVCPro bestehen diese aus 4 Blöcken des Y-Anteils und jeweils einem Block
des U- und V-Anteils des Signals, also aus insgesamt 6 Pixelblöcken, die per Blockshuffl ing für
eine optimale Codierung umsortiert werden [Braun, Kap. 2].
Da nicht das ganze Bild einheitlich quantisiert wird, sondern für jeden Macroblock aus
einem Speicher eine geeignete Quantisierungstabelle ausgesucht wird, spricht man hier von
dynamischer Intraframe-Codierung. Die Kompressionsrate liegt dabei bei 1 : 5, die Datenrate bei
25 MBit/s [Braun, Kap. 2].
Wie bei der MPEG-Codierung können durch die DCT oder durch Signalfehler im Bild sichtbare
Blockartefakte entstehen.
4 Grundlagen
21

4.3 Modulation und Fehlerschutz
Um auf terrestrischem Weg ­ also von Antenne zu Antenne ­ übertragen zu werden, muss das
komprimierte Bild- und Tonsignal auf eine Trägerfrequenz moduliert werden. Dabei können alle
drei Eigenschaften einer elektromagnetischen Schwingung für die Codierung der Nutzinforma-
tion verwendet werden: Frequenz, Phase und Amplitude.
Vor der Modulation liegt das Nutzsignal in der Regel als NRZ-Code vor, bei dem eine 1 als
,,high" und eine 0 als ,,low" codiert ist.
Abb. 6: Beispiel für einen NRZ-Code und die entsprechend mit ASK, FSK oder PSK modulierte Träger-
frequenz nach [Reimers, S. 145ff].
4 Grundlagen
22

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2003
ISBN (eBook)
9783832481209
ISBN (Paperback)
9783838681207
DOI
10.3239/9783832481209
Dateigröße
1.2 MB
Sprache
Deutsch
Institution / Hochschule
Hochschule der Medien Stuttgart – Electronic Media
Erscheinungsdatum
2004 (Juli)
Note
1,1
Schlagworte
funkkamera fernsehproduktion dvb-t cofdm außenübertragung
Zurück

Titel: Digitale drahtlose Kamerasysteme
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
96 Seiten
Cookie-Einstellungen