www.gisro.de








< < zurück zur Hauptseite

Die Digital - Kamera

Die Anfänge der digitalen Kamera

Die Anfänge der Digitalkamera nehmen im Jahre 1963 durch den Amerikaner David Paul Gregg an der Stanford University durch die Erfindung der Videodisk - Kamera ihren Lauf. Obwohl ihre Bilder nur über einen sehr kurzen Zeitraum gespeichert werden konnten, ist sie doch die erste Kamera, die Standbilder elektronisch speichern konnte.

Ende der 60er Jahre wurde dann das erste Patent auf alle flachen Bildschirme, die optische Bilder stabil aufnehmen und aufbewahren können, beantragt.

Willard Boyle und George Smith erfinden im Jahr 1969 die Basis des CCD (Charged Coupled Device). Ein CCD wurde ursprünglich als Datenspeicher entwickelt und ist ein lichtempfindlicher Chip, mit dem man Bilder speichern kann. Durch die Erfindung des CCD gelang der endgültige technische Durchbruch auf dem Weg zur digitalen Fotografie. 1970 bauten Wissenschaftler der Fa. Bell die erste so genannte Solid-State-Camera, die ein CCD als Bildaufzeichnungssensor verwendet. Bei der Solid-State-Camera handelte es sich noch um eine Videokamera, da es noch wesentlich schwieriger war, ein einzelnes Bild zu speichern als einen kleinen Film.

Die Ersten kommerziell erhältlichen CCD´s wurden Anfang der 70er Jahren von der Firma Fairchild-Imaging entwickelt und auch produziert. Die Auflösung des CCD hatte die Wahnsinnsgröße von 100 x 100 Pixel (0,01 Megapixel). Kurz darauf entdeckte Gil Amelio eine Möglichkeit, CCD´s einfach und industriell zu fertigen. 1975 war das Geburtsjahr der ersten Digitalkamera, mit der man Fotos machen konnte. Sie wurde von Steve J. Sasson bei Kodak entwickelt. Sie verwendete das CCD der Firma Fairchild als Bildsensor und benötigte über 20 Sekunden, um ein einziges Bild auf eine Digitalkassette zu speichern. Die Kamera wog 4 kg und war nur für starke Arme bestimmt. Die Fairchild MV-101 war dann im Jahre 1976 die erste kommerziell erhältliche CCD - Kamera. Auch sie verwendete den Bildsensor von Fairchild mit 0,01 Megapixeln.

Ab Mitte der 80er Jahre wurden Digitalkameras überwiegend von professionellen Fotografen im Bereich der Studio-, Mode- und Werbefotografie eingesetzt. Ab Mitte der 90er Jahre auch in der Reportage-Fotografie. Frühe serienreife Modelle wurden von Apple, Casio, Canon und Sony angeboten. Konica Minolta, Nikon, Olympus und Andere folgten später dann mit eigenen Modellreihen. Im Jahre 2002 wurde von Kyocera erstmals eine digitale Spiegelreflexkamera (DSLR = Digital Single Lens Reflex) mit einem Sensor in voller Kleinbildgröße vorgestellt. Heutzutage gibt es eine unüberschaubare Fülle von Modellen in allen Preisklassen, Ausstattungsstufen und mit den unterschiedlichsten Sensoren.

Im Hobby und Semiprofessionellen Bereich setzten sich Digitalkameras zu Beginn des 21. Jahrhunderts durch und erzielen aufgrund der rapide fallender Preise mittlerweile wesentlich höhere Umsätze als analoge Kameras. Viele Hersteller haben inzwischen die Produktion analoger Modelle ganz eingestellt oder zumindest stark reduziert.

Die Computertechnik (und damit verbunden auch die Digitalfotografie) ist einer überdurchschnittlichen Innovationsgeschwindigkeit ausgesetzt. Dadurch bedingt ist eine schnelle "modische" Halbwertzeit einer Heute noch neuen Kamera verbunden. Durch die immer schneller erscheinenden Neuentwicklungen ist ein heute gekauftes Modell mitunter in 3 Monaten veraltet. Dadurch entstand eine stürmische Belebung des gesamten Fotohandels, der vor Einführung der Digitalkameras als gesättigt und technisch ausgereizt galt.

Die Funktionsweise einer digitalen Kamera

Das fotografierte Bild entsteht in einer Digitalkamera in folgenden Schritten. Die mit einem * gekennzeichneten Punkte entfallen bei einer Speicherung ins Rohdatenformat (RAW).
  • Scharfstellung des Bildes
  • Abschätzen einer sinnvollen Belichtungszeit und Blende.
  • optische Projektion durch das Objektiv
  • optische Filterung durch Tiefpass-, Infrarot- und RGB-Filter
  • Wandlung der Lichtintensitäten in analoge elektrische Signale in diskreten Stufen
  • Wandlung der Lichtintensität in analoge elektrische Signale (Diskretisierung)
  • Digitalisierung der Signale durch Analog-Digital-Wandlung (Quantisierung)
  • Bildverarbeitung der Bilddatei:

  •   Umrechnung von Signalen in Helligkeiten
  • * Farb-Rekonstruktion
  • * Rauschunterdrückung
  • * Entfernen bekannter Fehler des Bildaufnahmesystems (defekte Pixel, Übersprechen,    Nachschärfen, Randabschattung, Verzeichnung, chromatische Aberration)
  • * Komprimierung der Bilddatei

  • Speicherung der Bilddatei
Bei einer Digitalkamera gelangt das Licht durch die Linsen des Objektivs in die Kamera und werfen das Bild auf den Sensor. Vor dem CCD-Sensor durchläuft das Licht in der Regel ein Infrarot-, ein Tiefpass- und ein Farbfilter.

Ein A/D-Wandler führt die Bildumwandlung in zwei Schritten durch. Dies ist einmal die Diskretisierung und die Quantisierung. Mit Diskretisierung bezeichnet die Zerlegung des Bildes in nichtkontinuierliche Einheiten. Mit der Quantisierung wird die Signalstärke durch eine natürliche Zahl repräsentiert. Da bei Kameras, die den RGB-Farbmodus verwenden, pro Pixel (Bildpunkt auf dem Sensor) - außer bei der Rohdatenspeicherung - drei Farbwerte gespeichert werden müssen, findet nach der Transformation in den entsprechenden Farbmodus in der Regel eine Interpolation der Farben statt. Dabei werden die zwei nicht registrierten Farbwerte aus den Werten der umliegenden Zellen interpoliert, das heißt, nach einer Regel "geschätzt" (educated guess). Nach der optionalen Korrektur von Abbildungsfehlern erfolgt eine Kompression, damit das Datenvolumens verkleinert wird. Normalerweise wird das Bild im so genannten JPG-Format gespeichert.

Die Bildumwandlung

Wie bei jeder Analogkamera wird das einfallende Licht vom Objektiv gesammelt und auf den Sensor scharfgestellt, d.h. fokussiert. Der Sensor (CCD) hat in der Regel eine deutlich kleinere Fläche als ein Bild auf einem analogen Kleinbildfilm einer Kleinbildkamera. Nur höherwertige und teure Digitalkameras verfügen über einen Sensor in Größe des APS - C Negativs oder gar üüber einen Vollformatsensor. Im professionellen Mittelformatbereich werden auch größere Sensoren eingesetzt. Grundsätzlich wird zwischen zwei Sensortypen unterschieden: Flächensensor und Zeilensensor.

Beim Flächensensor registriert der Bildwandler entweder gleichzeitig die drei Grundfarben (Oneshot-Kameras) oder nacheinander (Threeshot - Kameras). Im Wesentlichen existieren zwei verschiedene marktgängige Flächensensor-Typen. Der weit verbreitete CCD-Sensor wird unter Anderem von Canon, Nikon, Olympus, Pentax, Hawlett - Packard, Kodak, Panasonic, Samsung, Sony verwendet, sowie den CMOS-Sensor.

Eine Sonderstellung nimmt dabei der Foveon-Sensor ein, der in den Kameras von SIGMA verwendet wird. Dabei handelt es sich um einen Sensor der aus drei Schichten besteht, der rotes, grünes und blaues Licht mit jedem Bildpunkt aufzeichnet. Dem interessanten Prinzip zum Trotz hat auch die zweite mit Mikrolinsen ausgestattete Generation nicht zum durchschlagenden Erfolg des Sensors geführt.

Zeilensensoren werden in Scannerkameras eingesetzt, die nach dem Prinzip eines Scanners funktionieren, das heißt, sie arbeiten ähnlich wie ein Flachbettscanner und tasten das Bild zeilenweise ab.

Die Bildverarbeitung

In jeder digitalen Kamera arbeitet die Elektronik und die Firmware vor, während und nach einer Aufnahme eine Reihe von bildverändernder Verarbeitungen ab. Diese werden unter dem Begriff der Bildverarbeitung zusammengefasst. Diese Art der Bildbearbeitung unterscheidet sich aber von der Bildbearbeitung, die an der fertiggestellten Aufnahme durchgeführt wird.

Eine Digitalkamera beeinflusst durch den Weißabgleich - wie auch bei einer Videokamera - die Farbtreue bei Tages und Kunstlicht.

Die Homogenität eines Bildes - das heißt die gleichmäßige Schärfe und Helligkeit über das gesamte Bild - insbesondere am Bildrand, ist abhängig von den Abbildungseigenschaften und kann teilweise durch die kamerainterne Software ausgeglichen werden.

Die Qualität der kamerainternen Elektronik entscheidet auch über die Signaldynamik, das heißt, die von der Kamera unterscheidbaren Helligkeitsstufen sowie den Kontrastumfang des digitalen Bildes.

Die Kameraelektronik beeinflusst auch die Bildreinheit bzw. den Grad an Bildfehlern, die sich beispielsweise als Bildrauschen oder Kompressionsartefakte zeigen. Bei Kameras mit einer Auflösung von drei Megapixeln und mehr lassen sich CCD - Fehler kaum vermeiden. Einzelne Zellen arbeiten möglicherweise überhaupt nicht, andere arbeiten dagegen mit unterschiedlicher Empfindlichkeit usw. Solche "Aussetzer" können ebenso wie das, besonders bei Nachtaufnahmen auftretende, Bildrauschen von der Kameraelektronik zumindest vermindert werden.

Zur Verbesserung der subjektiven Bildwirkung führt die Firmware darüber hinaus noch diverse Optimierungen durch. Dazu zählen beispielsweise:
  • Scharfzeichnung: Erkennen und Verstärken von übergängen im Bild;
  • Kontrastanhebung: Anhebung des Kontrasts im Bild;
  • Farbsättigung: Erhöhen der Farbsättigung;
Bevor ein Foto ausgelöst wird, wird gegebenenfalls der Autofocus, der die Scharfeinstellung übernimmt, in Gang gesetzt. Auch wenn mehrere Fotos vom selben Objekt gemacht werden, muss jeweils eine Scharfstellung erfolgen. Bei einigen Kameras kann der Autofokus ausgeschaltet werden. Außer bei digitalen SLR - Kameras sucht man bei den meisten Digitalkameras einen Einstellring für die Schärfe allerdings vergeblich. Lediglich über das Menü der Firmware kann eine manuelle Scharfeinstellung erreicht werden, was die Einsatzmöglichkeiten der meisten Digitalkameras doch sehr begrenzt. Auch wenn der Autofokus abgeschaltet wird, findet vor dem Auslösen in der Kameraelektronik noch ein Weißabgleich statt. Weil das jedoch nicht ausreichend ist, findet auch noch ein Schwarzabgleich statt, um das elektronische Rauschen des Sensors und Fehlerpixel auszufiltern.



¤      ¤      ¤      ¤      ¤      ¤      ¤      ¤      ¤      ¤      ¤      ¤