Fototechnik allgemein Ausblick auf zukünftiges Fotografieren

ralfeberle

Mitglied
Registriert
10.07.02
Beiträge
11.285
Trophäen
10*15!4{*}1{!}
Hallo!

Dieses Thema zur Zukunft der Fotografie teile ich zu Beginn in zweierlei Infobeiträge:

1. Fotografische Möglichkeiten, die uns in naher Zunkunft erwarten.

2. Der technische Hintergrund

Beginnen wir also mit den, wie ich jetzt schon sagen kann, faszinierenden und vor allem für altgediente mit der Analogtechnik groß gewordene Fotografen unglaublichen Machbarkeiten, die den gelernten Fotografiergrundsätzen komplett zu widersprechen scheinen.

Zukünftig wird es, vielleicht nicht alles gleichzeitig aber doch möglich sein, Bilder mit einer Kamera, die so handlich ist wie die aktuellen aufzunehmen, die

a)

in einem Bild diverse Perspektiven einer Szene beinhalten die man einzeln herausrechnen kann. Dies wird zwar voraussichtlich nicht in so großem Winkel wie bei einem Hologramm möglich sein, aber daß man teilweise um Gegenstände herumsehen kann, wird möglich sein. Dies gilt zunächst nur für den Nahbereich, vor allem Makro, da der Durchmesser des Objektives maßgeblich ist. Größere Blickwinkel bekommt man nur mit Filmequipment, wenn man mehrere Kameras so wie bei Matrix z.B. im Halbkreis anordnet. Die Besonderheit aber bleibt, daß alle Info in einem einzigen Bild gespeichert ist.

b)

in einem Bild den gesamten Tiefenschärfebereich abdecken, den ein Objektiv bietet, also die Fokussierung auf den nahsten Punkt bis eben Unendlich. Dabei wird es möglich sein, Einzelbilder herauszurechnen, die nur in einer bestimmten Entfernung scharf sind, davor und dahinter aber völlig unscharf. Diese Entfernung kann auch ein Entfernungsbereich sein der beliebig groß einstellbar sein wird und ggf. eben komplett von ganz nah bis Unendlich alles scharf zeigt.

Eine zusätzliche Anwendung dieser Technik könnte z.B. bei Aufnahme eines Busches sein, den Busch dann völlig unscharf zu machen und die dahinter liegenden Objekte sichtbar zu machen, z.B. Personen etc. die zuvor durch Blätter größtenteils verdeckt waren. Das funktioniert so, wie wenn man sich vorstellt, die Kamera wäre ganz nahe am Busch gewesen und dieser dann eben durch eine große Blende sehr unscharf geworden, indem man auf die dahinterliegenden Objekte fokussiert hat.

Nur funktioniert dies eben auch aus größerer Entfernung, wobei die Objekte hinter dem Busch sich durchaus ganz nahe bei diesem befinden dürfen. Durch die sehr exakte nachträgliche Fokussierung - das ist das Stichwort: nachträglich - und die Übertreibungsmöglichkeit der Unschärfe treten scharfe Bildteile sehr deutlich hervor.

c)

es erlauben, Bewegungsunschärfe egal welcher Art, also verwackelt oder sich bewegendes Objekt, komplett zu eliminieren. Es ist eine Art perfekte automatische Dekonvolution die die Kamera selbst durchführt, doch auch dazu später mehr.

Zusammenfasssung:

Wir werden uns daran gewöhnen müssen, daß sich unser Verständnis der Fotografie grundlegend wandeln wird. Die Rechenleistung der Microchips steigt permanent weiter, so daß unsere zukünftigen Kameras Dinge mit Bilddaten vollbringen können, die sich von den optischen Gesetzen zu lösen scheinen. So werden zukünftige Fotos kein Ergebnis von Brennweite, Blende, Belichtungszeit und Sensorempfindlichkeit mehr sein, sondern vielmehr eines aus einer Berechnung durch komplexe Rechenalgorithmen.

Von unserer naiven Vorstellung, ein Foto sei ein Muster eingefangener Photonen entfernen wir uns immer mehr. Doch letztendlich wissen wir heute schon, daß das was wir sehen auch nur eine Verarbeitung der Realität durch das Gehirn ist. Kameras gehen nun den gleichen Weg. Ein Bild wird man schließlich nicht nicht mehr als ein zusammengesetztes Muster aus Pixeln definieren, sondern als eine Struktur höherer Ordnung. Und damit leite ich über zum zweiten Beitrag - morgen gehts weiter.

Gruß,

Ralf
 
AW: Ausblick auf zukünftiges Fotografieren

Hallo!

Nun zum zweiten Teil, der sich mit den Grundlagen obiger Verfahren beschäftigt. Vorausschicken möchte ich, daß das nicht theoretische Konzepte sind, sondern diese im Labor teilweise länger schon funktionieren und dies mit Beispielbildern belegen.

Alle drei Verfahren bauen auf dem schon unter http://www.ffsf.de/showthread.php?p=133974&#post133974 genannten 4D-Lichtfeld auf.


Zu a) Mehrfachperspektiven in einem Bild:

Das war die erste Anwendung eines 4D-Lichtfeldes. Noch mal ganz kurz rekapituliert: Ein 4D-Lichtfeld beschreibt für jedes Sensorpixel auch den Winkel des auftreffenden Lichtes. Damit nicht Licht aus unendlich vielen Richtungen auftrifft und die Berechnung damit ins Unendliche treibt, wird der Winkel gezielt gesteuert. Dadurch ist der Anteil des Fremdlichts, der ein Pixel außer dem direkt einstrahlenden trifft genau bekannt und somit herausrechenbar.

Erste Forschungsansätze in den frühen 1990er Jahren arbeiteten mit vielen in einer Matrix angeordneten Kameras, deren Bilder dann rechnerisch zu einem Bild zusammengefaßt wurden. Dieses Bild enthielt alle Infos des 4D-Lichtfeldes. Das Ergebnis wurde auch als Fotografie mit synthetischer Blende genannt (synthetic aperture photography) und ist mit der Technik verwand, die bei zusammengeschalteten Radioteleskopen verwendet wird.

Später wurde das Verfahren im Miniformat realisiert. Die Forscher pflanzten eine Anordnung von Mikrolinsen vor die Sensorpixel einer ansonsten herkömlichen Digitalkamera. Jede Mikrolinse fokussiert das Bild auf eine andere Region des Sensorchips. Dadurch sieht der Sensor statt eines großen Bildes viele kleine, aber jedes aus einer geringfügigen anderen Richtung. Daher auch meine Andeutung im ersten Beitrag, daß die Mehrfachperspektive in einem Bild abhängig vom Objektivdurchmesser sei.

Rechnerisch sind nun aus den "Unterbildern" verschiedene Perspektiven einer Szene erzeugbar. Meine weitergehende Idee, die nicht in meiner Quelle für dieses Thema erwähnt wird ist, daß dadurch auch 3D-Anaglyphenbilder aus einem Bild erzeugbar sein müßten. Und umgekehrt könnte man in einem Bild die Info der beiden Teilbilder eines Anaglyphenbildes (oder des Kreuz- oder Parallelblicks) speichern.

Die Verschiebung der Perspektive ist eine leichtere Übung einer Lichtfeldkamera, da die Unterbilder ja tatsächlich verschiedene Informationen unterschiedlicher Blickrichtungen zeigen. Weniger offensichtlich ist die Möglichkeit der Verschiebung der Fokussierungsebene.

Zu b) Beliebige Tiefenschärfe in einem Bild:

Hier wird es schon etwas komplizierter. Licht von Objekten, die außerhalb der Fokussierungsebene liegen, wird nicht sauber auf ein Sensorpixel abgebildet, sondern verschmiert über umliegende Pixel was als Zerstreuungskreis definiert ist. Ist der Zerstreuungskreis in einem herkömlichen Foto zu groß, empfindet man das Bild als unscharf.

Das Prinzip der beliebigen Tiefenschärfe zieht praktisch für jedes einzelne Pixel rechnerisch das Streulicht der umliegenden Pixel ab und addiert es zum richtigen Pixel - das nennt man Dekonvolution. Damit das in der Praxis einwandfrei funktioniert, muß man die Tiefe jedes Motivpunktes ermitteln. Das ist aus herkömlichen Fotos kaum möglich. Die Lichtfeldkamera aber liefert diese Info. Damit trennt die Forscher vom Ziel nur noch ein raffinierter Berechnungsalgorithmus.

Da die Lichtfeldkamera die Tiefeninformation im Bild verschlüsselt aufzeichnet kann man also aus der Parallaxe, der scheinbaren Verschiebung eines Objektes bei Veränderung des Blickwinkels die Dekonvolution durchführen. Das Lichtfeld enthält im Gegensatz zu normalen stereoskopischen Bildern nicht nur zwei sonder eben sehr viele Einzelbilder - genügend, um die Tiefeninformation für jedes Pixel zu gewinnen.

Stellt man damit eine Fokussierebene oder einen Fokussierbereich ein, kann man alles dahinter oder davor liegende ebenfalls rechnerisch beliebig stark verunschärfen. Soweit ich es verstehe sogar viel mehr als dies mit herkömlicher optischer Fotografie und großer Blendenöffnung mögich ist. Die damit erzielbaren Effekte sind demgemäß spektakulär - ich erwähnte ja oben das Beispiel mit dem Busch.

Das Verfahren befreit den Fotografen praktisch von der Notwendigkeit, bei der Aufnahme bereits auf irgendeine Ebene scharf zustellen. Es wird ja die komplette Info aufgezeichnet für jedeweden beliebigen nachträglichen Tiefenschärfebereich. Das ist sicher für heutige Fotografen gewöhnungsbedürftig. Da es aber mehr Freiheit bedeutet, wird es sicher rasch akzeptiert werden.

Kürzlich haben Forscher vom MIT eine neue Methode vorgestellt, ein Lichtfeld aufzunehmen. Statt der Mikrolinsen verwenden sie eine kodierte Blende (coded aperture), ansonsten aber auch eine normale Digicam. In die Blendenöffnung kommt eine Maske oder Filter. Die einfachste Version wäre eine Maske, die einfach in einem Halbkreis entspricht. Trotzdem erreicht das Licht jeden Punkt auf dem Sensor. Was sich aber ändert ist die Unschärfe von Objekten außerhalb der Fokussierungsebene: Sie wird asymmetrisch.

Damit ist das Ausmaß der Unschärfe bestimmbar und kann gezielt korrigiert werden. Es erwies sich aber in Versuchen, daß die beste Maske dafür ein Muster aus transparenten Bereichen verschiedener Form und Größen ist. Von diesem Muster leitet sich das 'kodiert' dieser Verfahrensvariante her, da es jedem Sensorpixel eine Art Stempel aufdrückt. Mit diesen Masken wird mitlerweile in diversen Forschungseinrichtungen experimentiert.

Beispielsweise wurde erkannt, daß diese Maske auch nahe des Sensors angebracht werden kann. Damit übernimmt die Maske die Funktion der Mikrolinsen der Lichtfeldkamera. Der den Pixeln aufgedrückte kodierte Stempel erlaubt nun, die Richtungsinformationen aus dem Lichtfeld rechnerisch zu entschlüsseln.

Zu c) Bewegungsunschärfe herausrechnen:

Wird das 4D-Lichtfeld zusätzlich noch zeitlich kodiert, kann auch eine Verschiebung des Bildes rückgerechnet werden. Um ein Bild zeitlich zu kodieren, arbeiten die Forscher mit einer sogenannten Flatterblende. Zuerst wird die gesamte notwendige Belichtungszeit ermittelt, damit das Bild korrekt belichtet wird. Diese Zeit wird nun aber die Blende nicht wie bei herkömlichen Digicams kontinuierlich offen gehalten, sondern sie wird in unregelmäßigen Abständen wieder geschlossen und geöffnet - so lange, bis die Summe der Öffnungszeiten der ermittelten Belichtungszeit entspricht.

Bei dieser Flatterbelichtung können die Pixel entlang der Bewegungsrichtung erkannt und separiert werden - jedes einzelne entsprechnend seiner Bewegung. Das Prinzip ist praktisch die Umkehrung der stroboskopischen Beleuchtung, eben eine stroboskopische Belichtung. Die heutigen schnellen Verschlüsse ermöglichen die Umsetzung der Technik problemlos. Diese Art der Belichtung verwandelt ein normalerweise verschmiertes Motiv in eine Sammlung von Einzelbildern, die jedes für sich kaum bis gar nicht verschmiert sind. In der Summe entsteht wieder ein Lichtfeld, gespeichert in einem einzigen Bild.

Es hat sich gezeigt, daß das Verfahren am besten funktioniert, wenn die Flatterblende unregelmäßig belichtet. Dadurch erhalten die Pixel eine eindeutige räumliche Signatur. Der Rest ist wieder nur eine Frage des passenden Rechenalgorithmusses.

Der Flatterverschluß könnte sogar die heute üblichen Bildstabilisatoren ersetzen. Ich habe in meiner Quelle für diesen Artikel ein Beispielbild, das verwackelt und völlig unscharf scheint, aber nach der Berechnung perfekt scharf ist.

Schlußbemerkung:

All diese Verfahren nehmen uns nichts bei der Bildbearbeitung. Fotooptimierungsprogramme wie FixFoto haben auch zukünftig ihren Daseinszweck, vielleicht kommen sogar noch zusätzliche Möglichkeiten - a) - c) - hinzu, wenn die Kamerahersteller die Rechenalgorithmen zu ihren Kameras freigeben.

Gruß,

Ralf
 
AW: Ausblick auf zukünftiges Fotografieren

sehr interssant und mit Spannung gelesen. Danke für die Info.
 
AW: Ausblick auf zukünftiges Fotografieren

Hallo!

Was nützen uns die ganzen Perspektiven der Fotografie bei der Aufnahme, so lange wir uns die Ergebnisse auf Papier in 2D ausgeben lassen und an die Wand hängen bzw. im im Fotoalbum/Buch betrachten wollen?

Es werden auch in fernster Zukunft Marginalien bleiben, die in kleinsten Bereichen ihre technische Berechtigung haben - das Ziel bleibt für mich immer noch das Bild an sich aufgrund der mir angeborenen und erlernten Fähigkeiten und Gewohnheiten. Und da passt der laufende Computer als technisches Hilfsmittel bei der Betrachtung nicht dazu. Ganz nebenbei ist die Frage, ob das Ganze auf irgendwelche Akzeptanz trifft...

Für mich sehe ich dabei keinerlei Neuerungen in bezug auf meine Ausgabeerwartungen.

Gruß

Günter
 
AW: Ausblick auf zukünftiges Fotografieren

Hallo!

Der Witz ist, daß diese Techniken voraussichtlich auch schon in die DigiCams integriert werden, so daß im ersten Durchgang wie gewohnt das Ergebnis ein Bild ist. Nur kann man eben nachträglich noch am fertigen Bild per Computer Fokussierungs- und Blickwinkelvarianten erzeugen. Es ist auch zu erwarten, daß die Datenträgerlesegeräte im Fotoladen zukünftig dem Kunden die Auswahl bieten, wie er die Tiefenschärfe legen will. Und nebenbei wird gleich jede Verwacklung beseitigt.

Gruß,

Ralf
 
AW: Ausblick auf zukünftiges Fotografieren

Was nützen uns die ganzen Perspektiven der Fotografie bei der Aufnahme, so lange wir uns die Ergebnisse auf Papier in 2D ausgeben lassen und an die Wand hängen bzw. im im Fotoalbum/Buch betrachten wollen?

Ich drucke vermutlich nicht mal 1 Promille meiner Bilder aus. Und wenn, dann sind das die üblichen Familienfotos, die von (vorwiegend älteren) Familienmitgliedern auf Papier gewünscht werden...
Ok - ja, hier im Hausgang hängen ein paar Vergrößerungen der schönsten Bilder, aber meistens guck ich mir doch Bilder auf irgendeiner Art von Bildschirm an. Und diese Betrachtungsmöglichkeit wird in Zukunft sicher zunehmen...
 
AW: Ausblick auf zukünftiges Fotografieren

Fast hätte ich vergessen, dem Ralf ein Dankeschön zu sagen. Dies sei hiermit nachgeholt. Wirklich interessant, was da auf uns zukommt. Einige Dinge, die sich rein mit Software in der Kamera realisieren lassen, hätte ich mir vor 5 Jahren auch nicht träumen lassen - und nun gibt es sie:
- die "Face Detection",
- das Herausrechnen perspektivischer Verzerrung (bei Ricoh),
- das Errechnen eines brauchbaren Bildes aus einem verrauschten und einem zweiten zu dunklen und
- das Herausrechnen von Objektivfehlern in der Kamera (bei Olympus) etwa.
Oder täusche ich mich bei letzterem?
 
AW: Ausblick auf zukünftiges Fotografieren

Fast hätte ich vergessen, dem Ralf ein Dankeschön zu sagen. Dies sei hiermit nachgeholt. Wirklich interessant, was da auf uns zukommt. Einige Dinge, die sich rein mit Software in der Kamera realisieren lassen, hätte ich mir vor 5 Jahren auch nicht träumen lassen - und nun gibt es sie:
- die "Face Detection",
- das Herausrechnen perspektivischer Verzerrung (bei Ricoh),
- das Errechnen eines brauchbaren Bildes aus einem verrauschten und einem zweiten zu dunklen und
- das Herausrechnen von Objektivfehlern in der Kamera (bei Olympus) etwa.
Oder täusche ich mich bei letzterem?

Nein Du täuschtst Dich da nicht-die Objektivfehler kan man bei den neueren Olympus Kameras tatsächlich schon in Kamera rausrechen- aber die Signalprozessoren sind noch nicht so schnell-ich nehm da lieber die mitgelieferte Software, und lass das meinen Rechenknecht machen.
Es geht aber auch noch weit über Ralf's Optionen hinaus: Tiefenschärfe per Flatterbelnde-das macht Zeiss schon recht lange, indem Blenden/Gitter mit sehr genau ausgemessener Refraktion in den Lichtweg eingeblendet werden- angeblich soll diese recht billige Option(im Vergleich) ja an echte Laser Scanning confokale Mikroskope heranreichen-gesehen habe ich es aber noch nicht, und ein LSM haben wir halt schon.
 
AW: Ausblick auf zukünftiges Fotografieren

Hallo!

Ey, dieser Artikel über das 4D-Lichtfeld hats unter diesem Stichwort bei G..gle gleich auf Platz 2 geschafft. :o

Gruß,

Ralf
 
Zurück
Oben