Einsteigerwissen für bessere Bilder

ralfeberle

Mitglied
Registriert
10.07.02
Beiträge
11.285
Trophäen
10*15!4{*}1{!}
Hallo!
znaika.gif


Hier einige Tips zu folgenden technischen Parametern von DigiCams:

- Lichtempfindlichkeit
- Weißabgleich
- Bildkomprimierung


Lichtempfindlichkeit

Im Gegensatz zu analogen Kameras können digitale die Lichtempfindlichkeit einstellen - manuell oder automatisch. Dies ist der ISO-Wert oder die ISO-Zahl. ISO steht für 'International Organization for Standardization', eines der beiden Gremien, die an der Standardisierung von Messverfahren zur Bestimmung der Eigenschaften digitaler Kameras arbeitet: http://www.image-engineering.de/de/messtechnik/digitalkameras.html
Beispiel der Eigenschaftenmessung digitaler Kameras: http://www.image-engineering.de/de/messtechnik/digitalkameras.html

Nur Einsteigerklassen-Digicams haben eine fest eingestellte Lichtempfindlichkeit. Je professioneller das Gerät, desto mehr Abstufungen sind einstellbar. Grundsätzlich liefert eine niedrige Lichtempfindlichkeit bessere Farbwiedergabe und geringeres Bildrauschen (gleichmäßige Flächen werden 'grieselig'). Niedrige Lichtempfindlichkeit heißt aber auch längere Belichtungszeit und damit Verwacklungsgefahr. Ein Stativ sorgt dann für Abhilfe, wenn mit Niedrigwerten aufgenommen werden soll.

Wenn die Digicam die Lichtempfindlichkeit selbstätig regelt, kann man gegebenenfalls in lichtarmen Situationen ohne Stativ keine guten Bilder schießen. Die Lichtempfindlichkeit des analogen Films wurde in ASA angegeben, Richtwert 100 ASA erlaubt auch an bewölkten Tagen ausreichend belichtete Bilder zu erzielen. Die ASA-Zahl entspricht exakt der ISO-Zahl. Halbierung der ISO-Zahl heißt also auch Verdopplung der Belichtungszeit und umgekehrt.

Code:
[B]DIN     ASA      ISO      GHOST[/B]
15°     25       25/15
18°     50       50/18
21°     100      100/21   90
24°     200      200/24   180
27°     400      400/27   360
30°     800      800/30   720
31°     1.000   1.000/31
33°     1.600   1.600/33
36°     3.200   3.200/36
39°     6.400   6.400/39

Technisch gesehen bedeutet eine Erhöhung der ISO-Zahl eine Verstärkung des Signals des lichtempfindlichen Chips in der DigiCam. Dabei wird aber auch das Grundrauschen der Kamera verstärkt.

Weißabgleich

Der Weißabgleich paßt die Kamera an die dominierende Lichtfarbe an, die man in Kelvin beziffert und auch oftmals Farbtemperatur nennt. Sonnenauf- und Untergang liefert z.B. mehr rötliches, helles Mittagssonnenlicht eher bläulicheres Licht und dieses wird mit 6500 Kelvin definiert. Neutrales Tageslicht ist mit 5600 Kelvin festgelegt. Im Hochgebirge kanns extrem ins Blaue gehen. Künstliches Licht stellt besondere Anforderungen, z.B. ist Kerzenlicht extrem rotorange mit etwa 1000 Kelvin. Kunstlicht hat oft um die 3200 Kelvin.

Der Kamera-Weißabgleich kann getäuscht werden, wenn mehrere Lichtquellen mit verschiedenfarbigem Licht vorliegen, dann spätestens ist von Hand abzugleichen. Der Weißabgleich der Kamera bezieht sich aber nicht nur auf die Farbtemperatur wie es oft falsch behauptet wird, sondern er korrigiert grundsätzlich Farbverfälschungen. Dies gilt so jedoch nur für den automatischen Weißabgleich, er versucht ein neutrales Grau auch neutral abzubilden. Vorwählbare Einstellungen an der Kamera beziehen sich naturgemäß immer auf die Farbtemperatur, da andersfarbiges Licht - z.B. Grün - nicht als Standardlichtsituation benennbar ist. Auch Einstrahlungen von farbigen Flächen können andere Farbstiche verursachen.

In allen Fällen hilft der nachträgliche Weißabgleich von FixFoto weiter, der jeden Farbstich beseitigen kann - sofern sich im Bild oder der Serie eine neutral-graue oder weiße Fläche findet - und keine Farbe durch den Farbstich übersättigt ist.

Für Fotografen, die auf natürliches Tageslicht angewiesen sind, gibt es sogenannte HMI-Leuchten - Hydrargym Medium Arc Length Iodide. Das sind Halogen-Gasentladungslampen, die 5600 Kelvin liefern. Sie unterliegen jedoch einem gewissen Verschleiß, so daß sie beizeiten zu ersetzen sind. Wenn man die Farbtemperatur nicht direkt messen kann, richtet man sich am besten nach den Herstellerangaben, wann die Lampe verbraucht ist. HMI-Lampen benötigen weniger als 220 V, weshalb sie mit einem Vorschalttrafo betrieben werden.

Steht einem beim Fotografieren - oder auch Videofilmen - im Studio zwar die Möglichkeit zur Verfügung, die Farbtemperatur zu messen, aber keine HMI-Leuchte, kann man an den vorhandenen Lampen Farbtemperatur korrigierende Filter anbringen. Deren Korrekturstärke wird in der Einheit MIRED - Micro Reciprocal Degree - gemessen. Welchen MIRED-Faktor man benötigt, wird wie folgt berechnet:

1.000.000 / gemessene Farbtemperatur - 1.000.000 / 5.600

Beispiel: Gemessenen Farbtemperatur = 3200 Kelvin
Lösung: 1.000.000/3.200-1.000.000/5.600 = 313-179 = 134

Also erzeugt ein MIRED-Filter mit +134 die benötigte Farbverschiebung für eine neutrale Farbtemperatur.


Zum Weißabgleich: Siehe auch eine mehr technische Erklärung.
Für Beispiele in Kelvin rund um Farbtemperaturen siehe den Farbtemperatur-in-Kelvin-Verbesserungsvorschlag.

Bildkomprimierung

Abspeichern von Bildern in der DigiCam als TIFF verhindert zwar jeden Datenverlust durch Komprimierung, verbraucht aber auch mehr Strom und füllt durch größere Dateien natürlich den Datenträger schneller. Die Stärke der JPEG-Komprimierung ist bei vielen Kameras einstellbar. Wählt man die beste Qualitätsstufe, werden die Bilder auch am größten und es passen am wenigsten auf den Datenträger. Verwendet man das RAW-Format - siehe unten - werden die Dateien etwa so groß wie JPEG in bester Qualität, aber RAW, das Rohdatenformat ist völlig verlustfrei.

Gruß,

Ralf


PS. In den folgenden Postings wird die Abkürzung EBV verwendet. Sie steht für Elektronische Bildverarbeitung. Manchmal liest man auch EBB, dies steht für Elektronische Bildbearbeitung.
 
Korrektur oder besser gesagt Ergänzung zur Lichtempfindlichkeit:

Bei vielen Kameras, aber auch Filmen wird die Lichtempfindlichkeit heute in ISO angegeben, die Bezeichnung ASA ist älteren Datums, die Werte sind die gleichen. Eigentlich ist die Verwendung der ASA-Zahl unter Bezeichnung ISO so nicht in Ordnung, denn korrekterweise stellt ISO eine Kombination von DIN und ASA dar.

Mein Hinweis soll kein Klugscheißermodus sein, sondern der Begriffsklärung dienen (siehe auch EXIF-Infos in FF)

Link dazu: http://www.kefk.net/Fotografie/Film/Grundlagen/Filmempfindlichkeit/index.asp

Der link ist in erster Linie für Analogfotografie, aber bei den "oldies" gibt es auch gute Seiten!  ;)

Gruß

Günter
 
Stimmt, da klingelt was bei mir! War's nicht immer, 100 ASA entsprach 21 DIN, 400 ASA 27 DIN?
 
Stimmt LadyCybershot,

je drei DIN mehr entsprechen einer Verdopplung der ASA-Zahl und umgekehrt. ;)

Gruß,

Ralf

PS. Die Info wurde oben eingearbeitet.
 
Hallo!

Die Tabelle wurde im Anfangsbeitrag mit eingearbeitet - aber ohne den kleinen Fehler, den die Quelle hat. Wer dazu noch eine Erklärung braucht, findet die unter Günters Link!

Gruß,

Ralf
 
Thema: BILDRAUSCHEN


znaika.gif


(Dies ist eine Zusammenfassung des Artikels 'Rauschen im Bild' der computerfoto 1/2003 S. 60 ff.. Ergänzt werden die Infos mit Daten aus dem Buch [THREAD=1458]Digitale Fotografie & Bildbearbeitung[/THREAD].)
  • Definition
    Von der analogen Fotografie her kennt man das Bildrauschen als 'Sichtbarwerden des Filmkorns' bei starker Vergrößerung. Digitalkameras rauschen ebenfalls, was sich durch eine gewisse 'Grieseligkeit' von homogenen Farbflächen, aber auch an Konturen bemerkbar macht. Man erkennt in Farbe oder Helligkeit fehlerhafte Pixel, die sich bei stärkerem Rauschen auch gruppieren können, was aussieht wie verlaufene Farbkleckse. Das menschliche Gehirn erkennt bei Flächen an bestimmten Objekten schon kleinste Abweichungen und empfindet dort das Rauschen besonders störend. Dazu gehören Lebensmittel, Haut, Himmel, Lacke und sehr feine Strukturen wie z.B. Metallic-Farben.
  • Ursachen
    1) Photonenrauschen: Bei herkömlichem Film ist die Kornanordnung zufällig, aber der Digicam-CCD-Sensor ist gleichmäßig aufgebaut. Die Lichtteilchen kommen aber zufallsverteilt an. Beim Film fällt dies nicht auf. Aber beim CCD-Chip erhält nicht jede Zelle beim Aufnehmen ein und des selben Bildes jedesmal gleich viele Photonen, ist also geringfügig zufallshell. Dieses Rauschen kann technisch nicht vermieden werden.
    2) Fixed Pattern Rauschen: Sowohl die CCDs als auch die Beschichtung der Farbfiltermaske unterliegen Toleranzen bei der Fertigung. Dies ist für jeden Sensor charakteristisch und wird technisch bei vielen Kameras mittels Rauschsubtraktion vermieden, d.h. von jedem Bild wird ein Korrekturbild abgezogen, eine Art Kalibrierungskorrektur.
    3) Thermisches Rauschen: Je wärmer der CCD-Chip, desto mehr rauscht er. Darum wird er z.B. mit Peltierelementen gekühlt und Chip-Wärmequellen weit weg angeordnet. Physikalisch kann das Silizium der Zellen die elektrische Ladung mit einer gewissen Sicherheit halten. Thermische Molekülschwingung verringert das Haltevermögen, die Ladung läßt sich nicht mehr so genau fixieren. Es sind praktisch nur dunkle Zellen betroffen. Eine kühle Kamera bedeutet also wenig T. R.
    4) Quantisierungsrauschen: Umwandeln des analogen CCD-Chip Signals in ein digitales erzeugt besonders an hellen Farbverläufen - z.B. Himmel, Haut - an Farbübergängen 'Gries' oder sogar Stufen.
    5) Komprimierungsrauschen: Es entsteht nur bei der JPEG-Wandlung der RAW-Daten. Nicht die berühmten JPEG-Artefakte und Mehrfachlinien, sondern eine gewisse Unruhe im Bild.
  • Abhilfen:
    zu 1): Kann durch Überlagerung von mehreren Aufnahmen eliminiert werden. Beseitigt auch fast alles andere Rauschen.
    zu 3): Außer einer kühlen Kamera tut sorgfältige Belichtung Not. Unterbelichtete Aufnahmen via EBV aufzuhellen, verstärkt das Rauschen in dunklen Bildpartien.
    zu 4): Korrigierbar durch Bildinterpolation (Vergrößerung) und wieder Herunterrechnung. Oder besonders betroffene Bereiche werden mit leichtem Weichzeichner behandelt. Das Druckraster beim Tintenstrahldrucken beseitigt dieses Rauschen meistens schon.
  • Rauschen-Beurteilung und EBV-Abhilfen:
    Variieren die Bildpunkte vor allem hell-dunkel, spricht man von Luminanz-Rauschen. Es ist rel. gut im Lab-Farbraum durch leichtes Weichzeichnen des L-Kanals reduzierbar. Sind dagegen die Farben betroffen, nennt man dies Chroma-Rauschen. Es wird durch Anwendung des Gaußschen Weichzeichners mit 1 oder 2 Pixel Radius im Lab-Farbraum auf den a- und b-Kanal sehr gut beseitigt. Beide Verfahren sollte eine EBV fertig zur Verfügung stellen, ohne daß sich der Benutzer mit Lab-Wandlung hin-und-her abmühen muß.

    Bilden sich Rauschpixelgruppen, ist dies niederfrequentes Rauschen. Es stört vor allem bei kleinen Bildern und ist bei großen leichter ausgleichbar. Bleiben die Fehlpixel separiert, nennt man's hochfrequentes Rauschen. Chroma-R. ist eher mittel- bis niedrigfrequent, Luminanz-R. dagegen eher mittel- bis hochfrequent.

    Schärfen des Bildes erhöht auch das Rauschen, vornehmlich an Konturen. Schlecht, wenn schon die Kamera hier zuviel des Guten tut.
  • Rauschen und Lichtempfindlichkeit (ISO):
    Generell gilt, höhere Lichtempfindlichkeit bringt mehr Rauschen, weil sie fast alle Rauschformen verstärkt. Thermisches R. - ist oft Chroma-R. - kann dann auch auf mittlere bis helle Bildpartien übergreifen. Und es ist schlecht korrigierbar. Trotzdem ist eine höhere ISO-Zahl der Kamera der Aufhellung unterbelichteter Bilder per EBV vorzuziehen. Die Kamera kann homogenere Ergebnisse liefern, da sie mit 12 oder 14 Bit für die Helligkeit je Farbe arbeitet, somit also 1024 bis 8192 Helligkeitstufen zur Auswahl hat. Die EBV muß mit nur 8 Bit auskommen, also 256 Stufen. Allerdings gibts mittlerweile einige Softwarepakete, die mit 16-Bit arbeiten. Für sinnvolle Ergebnisse muß man aber als Ausgangsbildformat RAW- bzw. 16-Bit-TIFF verwenden.

    Bei diversen Kameras lauert eine Falle in der ISO-Einstellung - sie stellen sie automatisch so ein, daß ein Verwacklungsschutz durch kurze Belichtungszeiten besteht. Die Automatik sollte ausgeschaltet sein, will man auf's Rauschen achten. Besser ISO fest vorgeben und Zeit oder Blende automatisch wählen lassen. Besonders übel wird's, wenn die Kamera beim Einschalten die ISO-Automatik als Default wählt - abschalten im Setup! (Weitere Info zu ISO siehe ganz oben ersten Beitrag.)

    Rauschen kann aber auch ein gewünschtes Bildgestaltungsmittel sein.

    Anwendungsbeispiele:

    mit Neat Image+FixFoto:
    http://www.ffsf.de/showthread.php?t=878

    Rauschverhinderung durch Bildüberlagerung:
    http://www.ffsf.de/showthread.php?t=2001
 
Thema: GEHEIMNISVOLLES RAW-FORMAT


znaika.gif


Dies ist eine Zusammenfassung des Artikels 'Speichern ohne Kompromisse' des fotoMAGAZIN 4/2003 S. 138/139. Ergänzt werden die Infos mit Daten aus den Büchern [THREAD=1458]Digitale Fotografie & Bildbearbeitung[/THREAD] und [THREAD=1478]Wargalla/Farbkorrektur[/THREAD] sowie eigenen Anmerkungen.
  • Einleitung
    Bilder im JPEG-Format brauchen wenig Platz wenn sie komprimiert werden, aber verlieren dadurch auch an Information und damit an Qualität. Viele DigiCams bieten daher auch das TIFF und/oder das RAW-Format als qualitätsverlustfreie Alternative an. TIFF aus der DigiCam arbeitet mit 24 Farbbit, je 8 für Rot, Grün und Blau. Damit sind 'nur' 256 Helligkeits-Abstufungen möglich. Für umfangreiche Bildkorrekturen kann das knapp werden, es ergeben sich dann Abrisse im Histogramm.

    Das heißt, einzelne Helligkeitsstufen fehlen, es gibt Helligkeitssprünge, was man in feinen Farbverläufen z.B. bei Abstufungen des Himmels erkennen kann. Es zeigt sich ein Solarisationseffekt. Daher wäre es wünschenswert, mehr Bit, nämlich 12 oder besser 16 je Farbe zu haben. Bei einem 48-Bit-Bild gibt es keine solchen Probleme. Scanner können bei entsprechender Qualität - auch der Software - Rohscans mit 48 Bit liefern und in der Scansoftware, die einer EBV-Software entspricht, verarbeiten. Digitalkameras, die Bilder im RAW-Format liefern können, bieten ebenfalls mehr als 8 Bit pro Farbe. 16-Bit-TIFF liefert derzeit keine DigiCam direkt, es ist nur über den Umweg RAW möglich.

  • RAW-Daten
    1) Format:
    Leider verwendet jeder Hersteller ein eigenes Datenformat, also Canon-RAW ist nicht Olympus-RAW, usw. was dazu führt, daß die Daten erst mal nur mit herstellereigener Software ausgelesen werden können. Es gibt aber auch Fremdhersteller-Tools, die RAW-Daten verschiedener Hersteller lesen können, z.B. Capture One, aber es hat einen stolzen Preis. Einer der Capture One-Hersteller hat sich selbständig gemacht und bietet derzeit ein vielversprechendes Freeware-Tool an namens RawShooter Essentials. Es wird wohl irgendwann kostenpflichtig werden. Es gibt noch weitere Tools, z.B. dcraw. Es werkelt als DLL auch in FixFoto.

    Man könnte auch auf die Idee kommen, mit einer Kamerasoftware RAW-Bilder eines anderen Herstellers zu lesen. Bei diesem Versuch ist aber mit einer Beschädigung der Bilddaten zu rechnen, Nikon beispielsweise warnt davor, daß dadurch alle EXIF-Daten verloren gehen. Man könnte es bei FixFoto mit dem neuen Camera Raw PlugIn probieren, es kostet aber 120,- € und soll nur für PhotoShop 7.01 sein.

    Mittlerweile sind die Nachfolgegeneration der Originalprogramme zur DigiCam in Umlauf. Sie geben am Ende inzwischen fast alle gewünschten Daten aus, sie es als 8-Bit oder 16-Bit Bilddatei. Jedoch bleiben zuweilen EXIF-Daten auf der Strecke oder nicht jede Kombination von 8 und 16 Bit erhält auch die EXIF-Daten. Auch in Sachen Benutzerfreundlichkeit sind die herstellereigenen RAW Konverter inzwischen sehr weit gediehen und erlauben meist schon umfangreiche Bildmanipulationen an den RAW-Daten, schon bevor sie in ein gängiges Bilddateiformat gewandelt werden.

    2) Funktionsweise
    Ein-Chip-Kameras erzeugen die Farbinformationen bei der Bildaufnahme durch auf die CCD- oder CMOS-Pixel aufgedampfte Farbfilter. Jedes Sensor-Pixel nimmt also nur die für es bestimmte Farbe auf - und zwar heute in 12 oder 14 Bit. Gleichwohl wird aber bei der z.B. kamerainternen RAW-Datenverarbeitung aus jedem solchen Pixel ein echtes Bild-Pixel, welches dann sowohl Rot-, Grün- und Blau-Anteile hat. Das überrascht, schließlich liefert jedes Sensor-Pixel zunächst doch nur eine Farbe (Ausnahme: Foveon-Chip, s. [THREAD]1269[/THREAD])! Technisch wird jedem Sensor-Pixel die fehlenden beiden Farbanteile durch Vergleiche (+ Gewichtung) der Nachbar-Pixel rechnerisch hinzugefügt.

    3) Eigenschaften
    Da ein Sensor-Pixel heute nur 12 oder vereinzelt 14 Bit liefert, sind RAW-Bilder also viel kleiner: Im Vergleich ist ein 24-Bit-TIFF folglich so groß: gegenüber 12 Bit 2-fach und 8 Bit 3-fach (ältere Kameras, zwar kein Vorteil in Helligkeitsstufen, aber zumindest kleinere Datei). Durch diese deutlich kleineren Dateien resultieren mehrere Vorteile: Es passen mehr Bilder in die DigCam, sie werden in ihr schneller weggespeichert und diese lassen sich auch schneller auf den PC übertragen.

    4) Spezialitäten: RAW-Daten sind unverändert, d.h. es wurde kein Weißabgleich, Kontrasteinstellung, Tonwerte, Sättigung oder Schärfung durchgeführt. Die Kameraeinstellungen dafür sind aber im RAW-Format enthalten, so daß die Hersteller-Software auf dem PC diese Bearbeitung nachträglich durchführen kann. Durch in der Kamera wegfallende Bearbeitung, werden die Bilder nochmals schneller weggespeichert.

    5) Vorteile am PC:
    LCD-Monitore an den DigiCams taugen nur unzureichend dazu, genaue Einstellungen für ein aufzunehmendes Bild vorzunehmen, weil sie einfach zu unpräzise in der Darstellung sind. Dies ist am großen PC-Monitor viel besser möglich. Speziell die Werte für den Weißabgleich werden in der DigiCam über ein relativ großes Meßfeld und damit ungenau ermittelt. Am PC bzw. in FF kann man dagegen punktuell vorgehen oder mittels einer beliebig geformten und großen Fläche. Ebenso ist die Schärfe viel besser zu beurteilen.
Grundsätzlich wäre also in jeglicher Bildbearbeitungssoftware eine 16-Bit RAW-Datenverarbeitung das Optimum. PhotoShop z.B. hat sich im Laufe der Zeit immer mehr Funktionen mit dieser Datentiefe erarbeitet. Von Version zu Version standen immer mehr Funktionen für die 16-Bearbeitung zur Auswahl. Mittlerweile hat auch FixFoto in Teilen bereits eine 16-Bit RAW und auch 16-Bit TIFF Verarbeitung.

Das alte 16-Bit Diskussionsthema als Frage bzw. Vorschlag: [THREAD]454[/THREAD]
Das neue 16-Bit Diskussionsthema zur Neuerung in FF: http://www.ffsf.de/showthread.php?t=5541

Zusatzinfo RAW-Format bei Wikipedia: http://de.wikipedia.org/wiki/Rohdatenformat
 
Thema: VIGNETTIERUNG


znaika.gif


Einführung

Klassisch ist Vignettierung - oder oft sogar Eckenabschattung oder nur Eckabschattung genannt - dadurch definiert, daß die meisten Kamera-Objektive einen mehr oder weniger großen Helligkeitsabfall zu den Rändern hin aufweisen. Genaue Erklärungen siehe unten bei Hauptgrund. Bei Scannern gibt es keine Vignettierung, da sowohl Flachbett als auch Trommelscanner plan abtasten. Sollte ein Scanner die Fläche nicht gleichmäßig beleuchten, wirds Zeit für einen Lampenwechsel, eine Reinigung oder das Ding zu entsorgen und ein vernünftiges Gerät anzuschaffen. Zurück zur Kamera. Um festzustellen, wie es um ein konkretes Objektiv bestellt ist, kann man folgendes machen:

Feststellen

Man lege ein weißes Blatt Papier, oder noch besser, eine weiße Folie oder Milchglas auf das Objektiv. Dann, ganz essentiell, sorge man für eine gleichmäßige Ausleuchtung der Objektivfläche und betätige den Auslöser. Das aufgenommene Bild zeigt nun sehr gut, wie stark das Objektiv vignettiert. Mit FixFoto sollte man die Vignettierung annähernd komplett korrigieren können. Einfach mal probieren. Falls jemand für ein Alternativ-EBV-Programm eine Korrektur-Kontrastmaskierungsmaske anlegen will und nicht so recht weiß wie, bitte melden.

Korrektur

Daß die Vignettierungskorrektur vor allen anderen Bearbeitungsschritten erfolgen sollte, dürfte klar sein - vor allem, wenn man in einem Alternativ-EBV-Programm solch eine erstellte Korrekturmaske anwenden will. Auch Bildbeschneidungen erlauben natürlich danach keine korrekte Anwendung mehr von FixFotos radialer Vignettierungskorrektur. Zu den Grundlagen diverser Abbildungsfehler siehe www.foto-net.de/net/objektive/error.html - wobei dieser Artikel davon spricht, daß die Vignettierung schwierig zu korrigieren sei und man damit leben müsse. Wurde wohl vor Aufkommen der DigiTechnik geschrieben. Ebenfalls ein guter Artikel zu Abbildungsfehlern und Fachbegriffen zu Objektiven liefert www.nikon-euro.com/nikoneuro_de/faq/lens/de/FAQ_lens_de_03.htm

Hauptgrund

Hier ein Zitat von www.fotolaborinfo.de/foto/weitwinkel.htm

"Je kürzer die Brennweite ist, desto stärker ist der Lichtabfall in den Bildecken. Man nennt diesen Effekt natürliche Vignettierung. Er ist darin begründet, daß von vorne betrachtet die Lichteintrittsfläche sprich die Frontlinse kreisrund erscheint. Bei Superweitwinkelobjektiven trifft das Licht, das in den Bildecken landet, aus einem großen Winkel seitlich auf das Objektiv. Aus diesem Blickwinkel erscheint die Frontlinse jedoch nur wie eine schmale Ellipse. Die Lichteintrittsfläche ist daher viel kleiner als aus frontaler Sicht, und entsprechend ist die Lichtmenge, die in den Bildecken landet, viel kleiner. Der Lichtverlust kann durchaus 2 Blendenwerte ausmachen. In seltenen Fällen sind für Extremweitwinkel sogenannte Center-Verlauffilter erhältlich, bei denen sich in der Mitte ein Graufilter befindet, das stufenlos zum Rand hin klar wird, um den Lichtverlust in den Ecken zu kompensieren. Solche nur für Mittelformatobjektive verfügbaren Spezialfilter kosten jedoch mehr, als viele Leute für ein normales Objektiv zu bezahlen bereit sind."

Zusatzgrund Aberration

Man könnte noch hinzufügen, daß kleine Objektive, oder primitive Linsensysteme prinzipiell stärkere Vignettierung produzieren, als Vertreter dieser Gattung seien die WebCams genannt. Zusätzlich kommt ein Lichtverlust in den Ecken durch Korrekturlinsen im Objektiv hinzu, die eingesetzt werden, um die Aberrationseffekte, die am Linsenrand stärker sind, zu korrigieren.

Zusatzgrund Mikrolinsen

Ein weiterer wichtiger Grund für die Vignettierung bei DigiCams sind die Mikrolinsen, die die Hersteller der lichtempfindlichen Sensoren vor den den Sensorpixeln anbringen. Werden sie nicht genau senkrecht vom Licht getroffen, wovon eben die Mikrolinsen in den Bildecken am stärksten betroffen sind und was vor allem ein Problem bei den großformatigen Sensoren der Semipro- und Pro-Klasse der DSLRs darstellt, fokussieren die Mikrolinsen das Licht nicht exakt auf das jeweilige Sensorpixel. Der Brennpunkt wandert also teilweise über den Sensor hinaus.

Andererseits kann man auf die Mikrolinsen auch nicht verzichten, denn sie verwerten immerhin bis zu 58% des gesamten Lichts, das den Sensor trifft. Dies schaffen sie, indem sie einen großen Teil des Lichts, das normalerweise die Zwischenräume der Sensorpixel träfe, einfangen und statt dessen auf die Pixel lenke. Ohne Mikrolinsen läge die Lichtausbeute nur bei ca. 10%! Diese Prozentangaben nennt man die Quanteneffektivität des Sensors.

Eine naheliegende Lösung der Vignettierungsproblematik wäre, einfach große Objektivlinsen zu verwenden, so daß nur der zentrale Lichtspot des Objektivs vom Sensor verwendet würde und rundum noch viel ungenutzer Lichtrand wäre. Doch dies würde die Objektive verteuern und deutlich schwerer machen, weshalb man so kleine Linsen wie möglich verwendet und dabei Kompromisse eingeht.

Moderne Lösung

Ein neuer Ansatz die Vignettierung zu reduzieren ist die Konstruktion von neuartigen Objektivlinsen, die nur noch ca. 10% Lichtabsenkung in den Bildecken erzeugen. Man kann davon ausgehen, daß 10% bis 20% Lichtabsenkung per EBV problemlos korrigierbar sind. Ein Weitwinkelobjektiv kann zu den Ecken hin durchaus eine Lichtabsenkung von 70% haben.

Beispiele von Objektiven mit solch neuen Linsen, die selbst bei 1 inch-Sensoren noch funktionieren, findet man bei Ingenieurbüro Eckerl in 94116 Hutthurm unter
http://www.ib-eckerl.de/lib/nav_lib.php?lsoptik+000110000000000000000000
Dort findet sich auch ein sehr empfehlenswerter Link zu einer englischsprachigen Abhandlung als PDF-Datei über die Vignettierung allgemein:
http://www.ib-eckerl.de/de/pdf/IBE_kb_shading_0601.pdf

Gruß,

Ralf
 
Ich habe noch ein Frage zum Verhältnis Auflösung : Bildqualität .

Ist es besser, höhere Auflösung mit großer Kompression einzustellen, oder eben das Gegenteil, niedrigere Auflösung mit wenig Kompression? Die Dateigröße ist ja in beiden Fällen in etwa gleich. Mit welcher Einstellung erhält man, laienhaft ausgedrückt, die "besseren" Bilder?
 
Hallo!

Das ist einfach. Da hohe Kompression, wenn wir von JPG-Dateien sprechen, JPG-Artefakte generiert, also die Bilder verändert, ist kleinere Auflösung ohne Kompression immer vorzuziehen. Bilder mit hoher Auflösung und hoher Komprimierung sind ohnehin nur verkleinert betrachtbar, ohne daß es, bildlich gesprochen, einem schlecht wird. Damit sind sie dann mindestens ebenso klein wie gleich mit niedriger Auflösung abgespeichert. Allerdings sind sie schlechter, weil die JPG-Artefakte durch das Verkleinern nicht verschwinden.

Gruß,

Ralf
 
Wahrscheinlich meint FixFotoUser (ein schöner Name, unter dem solltest du auch in anderen Foren posten), den Unterschied bei der Fuji S602 von 3F und 6N.
Die Dateigröße ist in der Tat fast gleich. Trotz oder wegen der stärkeren Komprimierung ist das 6MPixelbild in N etwas weicher, und das 3MPixel  Bild in F wirkt wegen der Kantenschärfung etwas brillanter.
Vergleiche hatte ich mal vor langer Zeit gemacht
http://www.pbase.com/chwachsmuth/test_s602zoom
Versuche mal selber, ein paar Bilder auszuwerten, es ist fast Geschmackssache. Ich nehme meist 3F, seltener 6F
Gruß Christian

Ach nee, ich sehe gerad, FixFotoUser hat eine Ricoh Caplio RR 30, Gedankengang wird sich aber übertragen lassen.
 
@ chwachsmuth

Danke, habe mir die Beispielbilder angesehen, war sehr hilfreich, aber, ohne Dir zu nahe treten zu wollen, zwischen 3 und 6 MP ist der Unterschied meines Erachtens ( zumindest bei den Beispielbildern ) nicht so sehr groß, oder täusche ich mich da ?  ( Oder sind die Fotos für eine solche Aussage nicht aussagekräftig genug ? )
 
Hallo!

Noch ein Nachtrag zu meinen vorigen Aussagen. Das Ganze stimmt so natürlich nur, wenn wirklich stark komprimiert wird. Geht es 'nur' um die Reduktion von 6 auf 3 Megapixel, reicht in FixFoto ein Qualitäts-Faktor von so um die 96 (mit 100 als bestmöglichem). Das ist äußerst geringfügig und ergibt mit bloßem Auge praktisch keine erkennbaren JPG-Artefakte! Folglich ist hier also das 6-Megapixel-Bild mit Komprimierung vorzuziehen.

Gruß,

Ralf
 
Die Unterschiede sind wirklich so gering. *Daher auch die recht ähnliche Dateigröße. Im FinePixForum wurde darum auch schon eine heiße Diskussion um 'die beste Einstellung' geführt.
Ich rate dir wirklich, einen eigenen Eindruck von deiner Kamera zu verschaffen, mache die Bilder mit Stativ und gleichbleibenden Lichtverhältnissen. Nur so kann man die Aufnahmen vergleichen. Was letztlich zählt, ist DEINE Zufriedenheit.
Christian
 
Ja, danke Dir ! Werde ich machen. Habe jetzt Urlaub, und werde einige Experimente durchführen.
 
Thema: SCHÄRFEN
znaika.gif


Dieses Posting hat als Grundlage Auszüge des Artikels 'Bilder bearbeiten' aus CHIP 5/2003 S. 178/179. Das Thema abrundende Infos stammen wieder aus den Büchern [THREAD=1458]Altmann/Digitale Fotografie & Bildbearbeitung[/THREAD] (Kapitel 3.8, rund 45 Seiten) und [THREAD=1478]Wargalla/Farbkorrektur[/THREAD] (Kapitel 2.9, rund 16 Seiten) sowie aus eigenen Anmerkungen.
  • Was ist Digitalbildschärfe und Weichzeichnen

    Bilddetails sind - auf Pixelebene gesehen - nichts weiter als Tonwertsprünge, also Helligkeitsunterschiede benachbarter Pixel, auch Kanten genannt. Geringe Unterschiede lassen ein Bild weich und unscharf, größere dagegen hart und scharf erscheinen. Fotografiert man jedoch eine absolut scharfe Tonwertgrenze, entstehen wegen der begrenzten Leistung von Objektiv und CCD-Sensor immer Übergangspixel.

    Daher muß jedes Digitalbild geschärft werden. In der Regel schärfen Digikameras relativ wenig, so daß die Bilder praktisch immer nachgeschärft werden müssen, will man optimale Schärfe haben.

    Der gegenteilige Begriff der Schärfe ist Weichzeichnen, ein Weichmachen des Bildes das angewandt wird, um Details zurückzudrängen oder Fehler zu entfernen. Zu starkes Weichzeichnen ist irreversibel. Es kann aber in Maßen angewandt, zu besseren Endergebnissen bei der Bildoptimierung führen:

    Zuerst wird weichgezeichnet, dann notwendige Bearbeitungen durchgeführt und zuletzt wieder scharfgezeichnet. Nochmal anders formuliert, scharfzeichnen erhöht Kontraste, wobei ganz neue Farbsäume um Konturen entstehen können, die den Kontrast weiter anheben.

    Professionelle Beurteilung von Schärfe bzw. Auflösung mittels Testbild (ISO 12233):
    http://www.henner.info/vergl.htm
    Es kommt also nicht nur auf die Auflösung an, sondern auch auf den dabei erzielten Kontrast. Eine noch detailliertere Erklärung, auch zu lp/mm (Linienpaare pro Millimeter) sowie der MTF (Modulation Transfer Function bzw. Kontrastübertragungsfunktion) findet man bei:
    http://schneider-kreuznach.de/knowhow/digfoto.htm

  • Schärfungsvarianten

    Im allgemeinen wird das Verfahren 'Unscharf maskieren' (USM) als das beste, am besten wirkende und universellsten verwendbare angesehen. Manche EBV-Software verfügt aber noch über andere Schärfungsfilter, die in besonderen Fällen überlegen sein können. FixFoto kennt das Standard- USM als auch ein teilautomatisiertes Unscharf maskieren.


    1) Unscharf Maskieren (USM):
    EBV-Programme und auch FixFoto bieten hier meist einstellbare Parameter, um z.B. den Wirkungsradius des Werkzeuges steuern zu können. Das heißt, nicht nur direkte Nachbarpixel werden erfaßt, sondern auch noch daneben liegende. Der Radius entspricht aber nicht realen Pixeln, da dem Algorithmus ein Gaußscher Weichzeichner zugrunde liegt. Z.B. Radius 0,9 erfaßt bereits bis zu drei Pixelspalten auf jeder Kantenseite!

    Eine weitere Einstellung ist der Schwellenwert, der die Kontrastgrenze angibt, ab der ein Pixel überhaupt erst geschärft wird. Damit läßt sich - ähnlich wie beim Filter 'Konturen betonen' - die Schärfung von Störungen in relativ kontrastarmen Flächen vermeiden. Und als letztes schließlich ist natürlich die Stärke einstellbar.

    FixFoto bietet beim USM zusätzlich Regler für die drei Farbkanäle mit Einstellmöglichkeit von 0% bis 100%. USM ist auch Grundlage für LCE - local contrast enhancement oder lokale Kontrastanhebung. Damit wird in den Mitteltönen mehr Kontrast erzeugt. Die Wirkung von LCE ist aber auch mit anderen Schärfungskombinationen erreichbar, wenn man etwas spielt.

    Die technische Erklärung: http://de.wikipedia.org/wiki/Unscharf_maskieren

    Beim teilautomatisierten USM benutzt FixFoto einen intelligenten Algorithmus und stellt selbstätig einen optimalen Radius ein. Das vereinfacht das Schärfen für den Benutzer stark. Das Programm unterscheidet wiederum zwei Varianten, nämlich Schärfen auf den Helligkeitskanal (Y) und auf den Farbkanal (RGB):

    a) USM-Y eignet sich eher für sehr helligkeitskontrastreiche Bilder, da es dann schon vorhandene Hell-Dunkel Kontrastgrenzen einfach stärker betont. Beispiel: Wiese im Sonnenlicht

    b) USM-RGB eignet sich eher für weniger helligkeitskontrastreiche Bilder, die eher gleichmäßigere Farbflächen mit wenig Hell-Dunkel Dynamikumfang haben. Beispiel: Blütenblätter werden sehr detailreich.

    Viele detaillierte und konkrete Tips zu Radius und Stärkeeinstellungen liefert folgender Beitrag von mir:
    http://www.ffsf.de/showthread.php?p=6995#post6995

    2) Kanten betonen / Kanten schärfen:
    Der Name sagt, was geschieht. Einstellbare Parameter: Stärke und Radius. Dieses Verfahren in FixFoto sorgt für gute Schärfe an feinen Details.

    3) Scharfzeichnen:
    Setzt einfach den Kontrast der Kantenpixel linear herauf in einstellbarer Stärke. Nicht in FixFoto vertreten, da die Ergebnisse kaum brauchbar sind.

    4) Schärfen durch Verformen:
    Modernes Verfahren, auch Schärfen durch Versetzen genannt. In FixFoto ist die Methode als fertige Option wählbar. Sie vermeidet durch geringfügiges Pixelverschieben Nachteile von 1) und liefert hervorragende Ergebnisse. Feine Details werden stark geschärft, zu starke Anwendung der Methode kann aber feine Details ganz verschwinden lassen.

    Das Verfahren reduziert Sägezahnkanten an schrägen Kanten, die durch anderer vorhergehende Schärfungsverfahren entstanden sind. Man muß ein ggf. ein Gleichgewicht zwischen gerade noch zuträglicher Stärke und damit maximaler Sägekantenreduzierung und minimaler Detailvernichtung finden. Beinhaltet ein Bild Pixel mit Tonwerten mit RGB 0,0,0 oder 255,255,255, verringert dieses Verfahren ihre Anzahl, sofern diese Pixel danebenliegende haben, die nicht diese Extremtonwerte besitzen.

    Und eine weitere Anwendung für das Verfahren wäre die Vorschärfung von nur leicht verwackelten oder defokussierten Fotos. Man bekommt diese ggf. damit so hin, daß sie wie normal ungeschärft aussehen. Dann kann man das eigene individuelle Schärfen durchführen - und zum Schluß wieder Versetzen/Verformen mit niedrigem Wert.

    Grundlagen von Ralph Altmann:
    http://www.ralphaltmann.de/bildbearbeitung/specials/pps_0002_018.pdf

    5) 3D-Schärfe:
    Die jüngste Top-Entwicklung in FixFoto in Sachen Schärfe. Die Bezeichnung 3D bezieht sich ursprünglich auf ein 'Gefühl' diverser Leute, die digital fotografierten. Sie meinten, manche DigiFotos wirkten realer als viele andere, plastischer, als hätte die Szene mehr Tiefe und man könne hineinspazieren.

    Der Programmierer Mike Chaney (Autor von Qimage) hat versucht, die Grundlagen für diesen Eindruck zu erarbeiten. Daß sich die bewußten Bilder tatsächlich für jeden erkennbar unterschieden, war da schon klar. Der 3D-Effekt in Fotos wurde ein oft gehörter Begriff in den Foren der Sigma-Kameras mit dem Foveon-Chip.

    Der Programmierer entwickelte letztendlich einen Algorithmus, der die Bilder herkömlicher DigiCams, die nach dem Bayer-Prinzip arbeiten, so behandelte, daß sie ebenfalls plastischer wirkten. Der Autor hat festgestellt, daß es an der Schärfe der Kanten im Bild liegt, die irgendwie anders war. Es entstand mittlerweile ein separates PhotoShop PlugIn namens EasyS, siehe http://www.outbackphoto.com/workflow/wf_38/essay.html.

    Wiederum vereinfacht ausgedrückt, es geht dabei um die Farbschärfe, die je Grundfarbe dem Bayer-Muster entsprechend gewichtet wird. Das ist der Stand des PlugIns.

    FixFoto hat die Methode so implementiert, daß erkannte Schwächen der Methode kompensiert werden. Die Charakteristika der 3D-Schärfe sind die universelle Einsetzbarkeit, kaum 'Treppchenbildung' an schrägen Kanten, kaum Gefahr der Überschärfung und Erhöhung der natürlichen Plastizität.

  • Situationen, in denen man schärfen sollte:
    Allgemein gilt, Schärfen muß für genaue Beurteilung der eingestellten Schärfungsparameter immer am 1:1 dargestellten Bild, d.h. in Zoomstufe 1, durchgeführt werden. Schärfen sollte möglichst in einem Durchgang erledigt werden und zwar in diesen Fällen:
    1. Die Bildgröße (Pixel hoch/quer) wurde verändert
    2. Das Bild wurde bisher nur von der Kamera geschärft
    3. Das Bild wurde verlustbehaftet gedreht
    4. Das Bild wurde verzerrt, z.B. wenn stürzende Linien beseitigt wurden
    Besonderes gilt beim Druck: Mit je mehr dpi gedruckt wird, desto weniger macht sich hohe Scharfzeichnung bemerkbar. Dies ist am Monitor nicht nachvollziehbar, man muß es wissen! Je nach Modell arbeitet der Monitor 72, 96, 114, 120, ... dpi, der Druck findet jedoch meist mit erheblich mehr dpi statt. Deshalb wird bei der Ausgabe aus mehreren Dateipixeln ein Rasterpunkt berechnet. Dies vermeidet Pixelstrukturen, verweichlicht aber das Bild. Bilder, die für den Druck vorgesehen sind, sollen (!) am Monitor etwas überscharf aussehen. Je schlechter das Papier, desto stärker sollte wiederum die Schärfung sein, denn rauhes Papier schluckt Schärfe.
  • Schärfen in Problemfällen:
    1. Geraten die Farben beim Schärfen zu satt, kann eine Umwandlung in den LAB-Modus, bei FF Option 'Helligkeit', Abhilfe schaffen, indem die Scharfzeichnung nur auf den L-Kanal (Helligkeit) angewandt wird.
    2. Falls das Bild nur in einzelnen Grundfarbkanälen ausgeprägte Körnung zeigt, typisch im Blauauszug, dann sollte man die Kanäle einzeln schärfen, den körnigen nur schwach (RGB in FF).
    3. In manchen Fällen hilft ein Vorgehen, das so nicht in FixFoto bislang möglich ist, erstens, weil Ebenentechnik und zweitens die Filter 'Hartes Licht' und 'Hochpass' fehlen: Die verschwommene Bildebene duplizieren, die obere Ebene auf 'Hartes Licht' setzen. Das Bild wirkt nun viel kontrastreicher. Und nun den Schärfungsfilter 'Hochpass' mit Radiuswerten um 4 anwenden. Die Wirkung kann durch Wechsel zu 'Weiches Licht' abgeschwächt werden.

Beispiel zum richtigen Schärfen: http://www.ffsf.de/showthread.php?t=867

Abschlußbemerkung:

Die beste Schärfe ergibt sich fast immer durch eine Kombination verschiedener Schärfungsverfahren!
 
Halo Ralf!

Wie immer eine wirklich klasse Zusammenfassung. Eine kleine Anmerkung hätte ich noch:

Du schreibst, dass ein Weichzeichnen Details zurückdrängt. Das stimmt m.E. so nicht. Es ist eher das Gegenteil der Fall.

Ein eher weiches Ausgangsbild enthält mehr Details, die durch Schärfen herausgenommen werden; dies allerdings zugunsten eines besseren Gesamteindrucks.

Daher ist die von mir präferierte Methode nicht, das Bild vor der Bearbeitung weichzuzeichnen, sondern es direkt mit einer weicheren Einstellung an der Kamera aufzunehmen. Das Schärfen erfolgt erst am Ende.
Im anderen Fall sind die Details bereits bei der geschärften Aufnahme verloren und können auch nicht mehr hergezaubert werden.
Die Konsequenz daraus ist allerdings, dass die Bilder zu 99% nachbearbeitet werden müssen und bspw. nicht direkt von der Kamera gedruckt werden können.

Grüße
#Poeth
 
Hallo Poeth!

Deine Anmerkung betraf eine Formulierung, die ich beinahe wörtlich aus einem der Bücher übernommen habe. Daß durch das Weichzeichen Details zurückgedrängt würden war wohl so zu verstehen, wenn man es übertreibt. Die Quelle hat nämlich weiter beschrieben, daß bei zu hoher Weichzeichnung es für die Software unmöglich würde, Kanten zu erkennen - und damit ist auch keine Schärfung mehr möglich.

Dies kann übrigens auch bei Entrauschungsalgorithmen geschehen. Stark verrauschte Bilder können z.B. mit Neat Image entrauscht werden, sind damit aber fast immer unschärfbar. Daher ist Entrauschen nur am Ende der Bearbeitungsfolge sinnvoll - zumal gerade Schärfen auch das Rauschen verstärkt.

Gruß,

Ralf

PS. Wenn ich ein Gesicht weichzeichne, verschwimmen Hautunreinheiten. Es stimmt also schon, daß Details zurückgedrängt werden.

PPS. Wer den 'Schärfen'-Artikel vor meiner letzten Änderung daran gegen halb zehn gelesen hat, sollte nochmal in der unteren Hälfte reinschauen. Es wurden zwei Hinweise auf FixFotos Möglichkeiten eingefügt: Schärfen durch Verformen und RGB-Farbkanalschärfen. DER Link zur Erklärung 'Schärfen durch Verformen':
www.ralphaltmann.de/bibliothek/fotografik/pps_0002_018.pdf

PPPS. Überragende Schärfung erreicht man in Problemfällen zum Beispiel auch durch kombinierte Anwendung von 'Unscharf Maskieren' und 'Schärfen durch Verformen', meist am besten in dieser Reihenfolge.
 
Zurück
Oben