• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Es regnet, ist neblig und kalt, alle sind krank und der Chef wird zunehmend cholerisch. Das Thema des Monats ist also folgerichtig --> Das Grau(en)
    Wir sind gespannt, war Euch dazu einfällt! Zum Wettbewerb --> Klick
  • Auch in diesem Jahr möchten wir auf unserer Webseite mit einem passenden Banner etwas weihnachtliche Stimmung verbreiten. Jeder Apfeltalker kann, darf und sollte uns einen Banner-Entwurf zusenden, wie und wo das geht, könnt Ihr hier nachlesen --> Klick

Erst Foto schießen, dann scharf stellen? Startup Lytro macht's (angeblich) möglich!

obermuh

Stina Lohmann
Registriert
10.06.09
Beiträge
1.022
Hab gerade einen kurzen Artikel zum US Startup Lytro.com gelesen. Die Kamera, welche noch in diesem Jahr auf den Markt kommen soll, nutzt die Lightfield Technologie um Bilder zu schießen die der Betrachter beliebig scharf stellen kann. Auf der Homepage gibt es dazu etliche Beispiele, mich würde mal interessieren was die Photographen unter euch dazu sagen?

Find's recht Interessant, muss aber sagen dass die Beispielbilder mich größtenteils nicht wirklich überzeugen. Man kann zwar einzelne Bereiche "scharf" stellen aber so wirklich scharf wirkt das alles nicht...

Bin auf jeden Fall gespannt wie sich das entwickelt, die Idee bzw. Technologie dahinter hat auf jeden Fall Potential!
 
Zuletzt bearbeitet:

Ankaa

Beauty of Kent
Registriert
19.08.07
Beiträge
2.158
Hab mich gerade mal durch die Gallerie geklickt. Netter Effekt, tolle Spielerei...aber scharf ist was anderes. Glaube nicht, dass ich mich damit zufrieden geben würde...und wenn das wirklich so bleibt, wäre es schade, da es den fotographischen Anspruch von "Ottonormalknipser" nochmal nach unten verschieben würde.
 

Irreversibel

Holländischer Prinz
Registriert
16.03.07
Beiträge
1.843
Diese Lichtfeldforschung ist nix Neues, synthetische Aperturen und Lichtfelder wurden seit den 90ern in Stanford erforscht und man könnte schon behaupten: Das ist die Zukunft. Die ersten Kameras werden, wie die ersten Digitalmodelle auch, nicht viel leisten können, neue Speichertechnologien erfordern und vor allen Dingen sehr viel kosten!

Ich denke aber, dass Lichtfeldfotografie das nächste große Ding sein wird, weil die Menschen eigentlich keine Bilder wollen, sie wollen Momente. Das kann ein ähnlich großer Sprung sein wie von der Malerei zur Fotografie, Leute werden in Zukunft in der Lage sein, ihre Umgebung wesentlich lebensnaher aufzunehmen und sogar 3D-Bilder aus diesen Aufnahmen erzeugen. In Lichtfeldfotografien kann man nämlich nicht nur den Fokus sondern auch in gewissen Grenzen die Perspektive ändern. Der Bildjournalismus wird sich mit Freunden auf dieses neue Medium stürzen und auch für wissenschaftliche Anwendungen gibt es mehr als genug Nachfrage, von der privaten Fotobegeisterung ganz zu schweigen.

Hier sind mal einige Beispiele von dem, was die Leute von Stanford aus dem Thema gemacht haben:
Stanford University: Light Field Archive

Schon das 1. Bild ist beeindruckend, man kann den Fokus verschieben, die Perspektive und man kann zwischen großer und kleiner Blende wechseln. Ich würde davon ausgehen dass jeder größere Kamera- und Elektronikhersteller die Technologie zumindest auf dem Schirm hat, wenn sie nicht schon Leute damit beschäftigen. Komisch dass gerade ein Startup plötzlich damit um die Ecke kommt. Damit werden einige Leute auf jeden Fall SEHR reich werden.
 

Thaddäus

Golden Noble
Registriert
27.03.08
Beiträge
18.521
Was ich nicht ganz verstehe: Wäre sowas nicht auch mit z.B. Photoshop möglich? Vielleicht ist das jetzt eine dumme Frage, würde mich aber durchaus interessieren... :)
 

Irreversibel

Holländischer Prinz
Registriert
16.03.07
Beiträge
1.843
Nein, das wäre leider nicht möglich, einfach weil die Informationen auf gewöhnlichen digitalen Fotografien fehlen. Sie werden von aktuellen Sensoren nicht mit aufgenommen.

Angenommen, wir würden ein Bild mit extrem hoher Schärfentiefe machen, quasi mit einer Lochkamera, dann wären ALLE Bereich scharf. Allerdings zeichnet der Film oder Sensor nicht auf, woher das Licht eigentlich stammt, das heisst ich muss mich dransetzen und die Bereiche, die ich unscharf haben will von Hand weichzeichnen. Mit einer Lichtfeldkamera ist das nicht der Fall, man kann anhand der gesammelten Daten berechnen, woher nun genau welcher Lichtstrahl kommt und wo im Raum der gezeichnete Pixel stehen sollte. Und wenn man sich dann klar macht, dass Unschärfe nichts anderes ist als die Kombination von Zerstreuungskreisen kann man sich vorstellen, dass es mit einem von so einer Kamera aufgenommenen Datensatz ein leichtes ist, zwischen scharfen und unscharfen Abschnitten im Raum hin und her zu schwenken.
 

theworldis

Alkmene
Registriert
27.06.11
Beiträge
30
Ich vermute die machen 2 Fotos, eins mit kleiner und eins mit großer Blende und lassen einen dann in etwa auswählen welches :)
 

Irreversibel

Holländischer Prinz
Registriert
16.03.07
Beiträge
1.843
Ja, ne. Wenn's mal so einfach wäre. Es geht ja stufenlos :)
 

theworldis

Alkmene
Registriert
27.06.11
Beiträge
30
Dann ist das ne coole Sache. Auch wenn ich weiterhin mit PS und kleiner Lochblende ähnliches machen kann. Nur mit viel mehr Aufwand (ich muss die Bereiche selbst auswählen)
 

Irreversibel

Holländischer Prinz
Registriert
16.03.07
Beiträge
1.843
Es geht ja nicht nur darum. Die Lichtfeldfotografie kann prinzipiell aus jedem damit aufgenommenen Bild ein 3D-Bild machen. :) Man kann z.B. Leute hinter Büschen sichtbar machen indem man die Büsche einfach beiseite schwenkt bzw. die Perspektive verändert. Denkt mal darüber nach... Das sprengt die physikalischen Grundlagen "normaler" Fotografie, die Veränderung der Schärfentiefe ist da wirklich nur ein netter Nebeneffekt.
 

Babaluh

Alkmene
Registriert
26.06.11
Beiträge
34
Es würde aber auch den Workflow massiv verändern - jedes Bild müsste dann am PC nachbearbeitet (erstellt) werden.
Nach mehreren Wochen Urlaub und entsprechend vieler Fotos wäre das eine sportliche Aufgabe.

Im Moment kann ich mich mit dem Thema nicht anfreunden.
 

Irreversibel

Holländischer Prinz
Registriert
16.03.07
Beiträge
1.843
Hä?

Das ist so als würde ich dir eine Videokamera in die Hand drücken und du sagst "Also nee, 25 Bilder auf einmal die Sekunde, also das ist mir jetzt deutlich zu viel, wer soll die denn alle bearbeiten?". Du verstehst anscheinend das Konzept dahinter nicht. Das macht die 2D-Fotografie ja nicht sofort überflüssig, es ergänzt sie nur äusserst sinnvoll.

Der Workflow von Amateuren ist mal sowas von gar kein Problem, die passen sich alle an; das interessiert doch keine Wurst solange die Information drauf ist, die die Profis (Bildjournalisten etc. pp.) wollen. Und wenn die Profis sie wollen und umsetzen, wollen alle die Technik. Wenn sie alle nach deinem Schema denken würden hätten sie sich wohl bei Einführung der Digitaltechnik allesamt in die Hosen gemacht. "Wie jetzt, 1500 Bilder von einer Sportveranstaltung? Wer soll sich die denn alle ansehen und die besten raussuchen?"
 

Babaluh

Alkmene
Registriert
26.06.11
Beiträge
34
Dein Beispiel mit der Videokamera hinkt.
Ob 2D oder 3D ist ebenfalls völlig egal.

Im Moment ist es so, dass man sich während der Aufnahme für die wesentlichen Faktoren entscheidet (im Urlaub über einen Zeitraum von meinetwegen 2 Wochen). Bei der Lichtfeldtechnik trifft man diese Entscheidung nicht mehr vor Ort, sondern anschließend am PC (dann aber auch Bild für Bild nacheinander weg). Dazu hätte ich keine Lust. Der jetzige Umfang, mit der Bearbeitung von RAW nach JPEG, reicht mir vom Aufwand völlig (und selbst den machen sich viele andere schon nicht).

PS: Dein oben genanntes Beispiel mit dem "Busch zur Seite schieben" ist eine recht witzige Idee - aber leider absoluter Blödsinn.
Das was die Kamera im Moment der Aufnahme nicht gesehen und auch nicht interpolieren kann, wird nachher auch nicht auf dem Bild sein.
Man sollte nicht von jeder neuen Technik Wunder erwarten.
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Die Lichtfeldfotografie kann prinzipiell aus jedem damit aufgenommenen Bild ein 3D-Bild machen.
Dass solche Pseudo-Holografien aus hunderten von Einzelaufnahmen aus verschiedensten Blickwinkeln kombiniert wurden, muss man ja nicht weiter beachten...
 

Irreversibel

Holländischer Prinz
Registriert
16.03.07
Beiträge
1.843
Ach herrje.

http://lightfield.stanford.edu/aperture.swf?lightfield=data/still/preview.zip&zoom=1

http://lightfield.stanford.edu/aperture.swf?lightfield=data/outdoors/preview.zip&zoom=1

Vielleicht mal einfach selber gucken. Kann ja nicht so schwer sein die Bedienfelder zu verstehen und mal ein bisschen herumzuexperimentieren. Ich schreibe ja auch nicht von der gewöhnlichen Fotografie sondern von LICHTFELDFOTOGRAFIE, die mit hohem technischen Aufwand noch einen ganzen Batzen zusätzlicher Informationen aus dem Licht holen kann.

Das Beispiel mit der Videokamera ist schon ganz richtig. Die Menschen die damals die Bilder in die Höhle gekritzelt haben, konnten sich auch nicht vorstellen dass das mal irgendwann schneller geht. :D

@Rastafari: Ja klar, und wo liegt jetzt das Problem? Neue Sensoren schaffen das mit Mikrolinsen.
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Neue Sensoren schaffen das mit Mikrolinsen.
...die sich durch magische Wirkung ganz von alleine überall im Raum verteilen, um tatsächlich verschiedene Perspektiven bieten zu können?

Ich schreibe ja auch nicht von der gewöhnlichen Fotografie sondern von LICHTFELDFOTOGRAFIE
...deren technische Umsetzung in Wirklichkeit eine HiSpeed-Videoaufnahme mit etlichen Einzelaufnahmen ist...
 

Irreversibel

Holländischer Prinz
Registriert
16.03.07
Beiträge
1.843
Der Perspektivewechsel ist begrenzt, aber da, eben weil nicht nur aufgenommen werden kann "Oha, da trifft ein Lichtstrahl auf" sondern auch woher denn nun eigentlich dieser Lichtstrahl kommt. Und wenn man weiss, wie eine fotografische Blende funktioniert, nämlich so, dass man sich nur die Lichtstrahlen rauspickt die zum einem zunehmenden Teil aus EINER Richtung stammen dann kann man sich auch herleiten wie der ganze dreckige Rest funktioniert. Nur dass wir hier nicht von vorneherein auswählen müssen, welche Lichtstrahlen wir nehmen, wir nehmen sie einfach alle und entscheiden hinterher aus welcher Richtung sie kommen sollen.

Diese Art Licht aufzunehmen wird besser funktionieren und weit mehr Informationen liefern als das menschliche Auge, denn auch das Auge kann nur wahrnehmen dass Licht auftrifft, aber nicht auf der Netzhaut differenzieren woher. Dafür haben wir die Pupille, die diese Informationsflut für uns vorfiltert. Vielleicht ist es deswegen so schwer zu verstehen, da sich die Kamera wie wir sie kennen am menschlichen Auge orientiert.

Zu der technischen Umsetzung: Jau, stimmt. Meinst du es ist unmöglich, dass diese Kameras eine Vorrichtung simulieren, die so klein sein kann dass du sie mitnehmen kannst? Diese Kameras simulieren Sensoren die diese Informationen liefern können, sie können so arrangiert werden, dass sie Licht aus verschiedenen Richtungen aufnehmen.

PS: guck dir doch diese Kamera-Arrays mal genau an anstatt nur Klappentext zu lesen.
 
Zuletzt bearbeitet:

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Meinst du es ist unmöglich, dass diese Kameras eine Vorrichtung simulieren, die so klein sein kann dass du sie mitnehmen kannst?
Die nächsten 20-50 Jahre wohl schon noch.

Diese Kameras simulieren Sensoren die diese Informationen liefern können
Simulierte Sensoren liefern keine Information. Sie konsumieren sie. Simulationen kann man nur aus Informationen herstellen, die man bereits besitzt.
 

Irreversibel

Holländischer Prinz
Registriert
16.03.07
Beiträge
1.843
@Rastafari: Die Unterhaltung gefällt mir echt, auch wenn's sich evtl. nicht so liest.

Ich denke es wird weder 50 noch 20 Jahre dauern. Mit Wortklaubereien kommen wir aber auch nicht weiter.

Ich hätte jetzt gedacht du würdest mir damit kommen, dass diese Kameras eine Blendenöffnung von 3 Fuß simulieren und du mir sagen wirst "Schau her, ich schleppe doch kein Objektiv mit 3 Fuß Durchmesser durch die Gegend." Dem hätte ich dann entgegnet, dass sie damit die klassische Situation Linsensystem-Blende-Abstand-Sensor simulieren, eine solche Kamera die differenzieren kann aus welcher Richtung einzelne Lichtstahlen kommen allerdings auch kein so komplexes System zur Lichtbündelung mehr benötigt. Das hiesse man könnte den Sensor wesentlich näher an den Ort des Lichteinfalls bringen. Jetzt gerade so um 2 Uhr Nachts fällt mir eigentlich kein Grund ein, den Sensor nicht direkt ohne jegliche optische Vorfokussierung in Lichtkontakt zu bringen. Im Extremfall wäre es so möglich, Licht aus fast 180° in jede Richtung aufzunehmen.

Den Sensor kann man sich so vorstellen dass jeder "Pixel" physikalisch ein "Krater" mit Mikrolinse ist. In diesem Krater sitzen genug Sensoren in jede Richtung, um das Licht aus verschiedenen Richtungen aufzunehmen. Also ich kann mir das vorstellen und weiss nicht wo das Problem liegen soll das nachzuvollziehen.