Mehr brandheiße Inhalte
zur Gruppe
FETISCH FOTOGRAFIE
5271 Mitglieder
zum Thema
Digitale Spiegelreflex Kamera41
Ans Fachpublikum. Welche Digitalkameras sind zur Zeit im…
Das Thema ist für dich interessant? Jetzt JOYclub entdecken

Sensorgröße in Digitalkameras

Sensorgröße in Digitalkameras
In den letzten Jahren ist die Sensorfläche und die Pixelzahl pro Fläche in Digitalkameras stark angestiegen, sodass die Bildinformation und damit auch die Vergrößerungsfähigkeit steil angestiegen sind. Das eröffnet die Möglichkeit auch Ausschnitte zu wählen, die man während der Fotografie nicht erstellt hat. Die Kehrseite ist natürlich, dass bei gleicher Chipgröße und mehr Pixeln, die bestehende Lichtmenge durch alle Pixel geteilt wird und somit immer weniger Licht pro Pixel vorhanden ist. Das Beeinflusst das sogenannte Rauschverhalten des Sensors.

Absolute Vorausetzung für Ausschnitte sind jedoch gute Objektive, damit die Bildinformation nicht in der Unschärfe untergeht.

Beispielbilder:
Bild 1: Originalgröße von einem 4032X6048 Pixel-Bild
Bild 2: Neuer Ausschnitt
Bild 3: Größe bei einer Vergrößerung auf 2x3m, das ist eine 88fache Vergrößerung mit einer fasst 7000 fachen Bildfläche. Das Bild wurde hochscalliert auf 28346x42518 Pixel und hat jetzt 3,28GB Größe.
In diesem Zusammenhang muß ich immer leise Lächeln, wenn ich Menschen sehe, die nicht mit der vollen Auflösung ihrer Kamera fotogarfieren, weil sie meinen, dass würde reichen *g*
Dabei wird viel verschenkt finde ich...
*****and Paar
3.119 Beiträge
lieber Lupo,
...In diesem Zusammenhang muß ich immer leise Lächeln, wenn ich Menschen sehe, die nicht mit der vollen Auflösung ihrer Kamera fotogarfieren, weil sie meinen, dass würde reichen *g*...

Es gibt sogar Menschen, die ihre Aufnahmen nur in .jpg
in der Kamera ablegen, weil es denen reicht. Das ist in
meinen Augen auch unfassbar... *lach*


Lieben Gruß,
Christine und Andreas...
*******s_hm Paar
1.945 Beiträge
schön,dass man mal drüber gesprochen hat ............
*roll*
*******dist Mann
354 Beiträge
Stimmt schon
das man dadurch Details herausholen kann die man sonst nicht sehen würde.
Ich bin aber skeptisch was die Anzahl der Pixel auf den Chips anbetrifft.
Will sagen irgendwann ist die Grenze erreicht was man draufpacken kann.
Meines Wissens werden durch die Interpolation die Pixel von den benachbarten Pixeln beeinflußt was die Information angeht. Was wohl wieder eine gewisse Unschärfe zur Folge hat.
Ich bin mir nicht sicher ob ein fxchip mit 6 Mio nicht bessere Bilder liefert als ein dx mit 12 Mio

Was jetzt Geräte mit mehr als 30 Mios betrifft. Ich denke die geben vielleicht für einen Profifotografen Sinn insbesondere in der Tier/Panoramafotografie. Da stellt sich die Frage ist der mögliche Ertrag den höheren Preis wert? Sicher nicht für Diejenigen die jpg fotografieren oder nicht mit der bestmöglichen Auflösung fotografieren.

@ Lupo
Mit welcher software wurde das Bild hochgerechnet?

Gruß
Stefan
Mit welcher software wurde das Bild hochgerechnet?
Hallo Stefan, es ist mit PS CS5 hochgerechnet und es ist schon gewaltig wie bei gleichbleibender Auflösung das Bild aufgebläht wird *g*

Arnulf
*******dist Mann
354 Beiträge
Hallo Arnulf,
Danke für die Info.
Ich hab CS4 ich dachte allerdings wenn man so extrem vergrößert wird es unscharf.
Muss ich mal testen.

Stefan
*******n_he Mann
282 Beiträge
Was bringt das?
Nette Berechnung, aber:

1. Was bringt mir ein Bild in 3 x 4,5 Meter? Im Hochformat? Meine Wohnung hat nur eine Deckenhöhe von 2,40 Meter, und eingerollt sieht man ja auch nicht so viel von dem (schönen) Bild.

2. Deine Kamera hat eine Sendorauflösung von 24 MPixel, also vermute ich mal Vollformat. Was hast du für ein tolles Objektiv drauf? Wenn es ein normales Consumer-Objektiv ist, dann gehe ich mal davon aus dass es nicht mehr als bestenfalls 60 Linienpaare pro Millimeter Auflösung besitzt und an deinen FX-Chip so etwa 8 Megapixel liefert.... dann wäre schon beim Ausgangsbild 2/3 der Pixelinformationen vage.

3. Eine derartige Skalierung in Photoshop ist machbar, aber meines Erachtens in einem Schritt nicht sinnvoll. Schaut man auf die Wimpern und die Haut sieht man die Unschärfe. Ich nehme immer nur das Verfahren, die Bildgröße in Schritten um maximal 10% zu vergrößern und spätestens nach der 2. Skalierung eine Schärfung vorzunehmen.

4. Ich denke nicht dass die skalierte Version mehr zeigt als das Originalbild. Warum auch? Was im Original an Informationen nicht drinsteckt, kommt auch beim Skalieren nicht hervor.

5. Angesichts obiger Berechnung, dass einfache Objektive allein vom Auslösungsvermögen her die modernen Chips nicht ausreizen erscheint es mir nicht verwerflich (ist es sowieso nicht, weil man kauft ja eine Kamera um genau das damit zu machen, was man selber will, und nicht was andere für sinnvoll erachten) mit der Bildgröße herunterzugehen. Warum 20 Megabyte auf der Karte verschwenden, wenn das Bild mit reduzierter Auflösung und 10 Megabyte immer noch genauso viele Details zeigt.

6. Bei ungefähr 10.000 Bildern pro Jahr denke auch ich manchmal, dass allein aufgrund der anfallenden Datenmengen nun wirklich nicht jedes Foto in RAW sein müsste... würde mir den ein oder anderen Festplattenkauf ersparen *gg*

lg
devotion_he
gute Objektive sind natürlich am Wichtigsten
@*******n_he

Was bringt mir ein Bild in 3 x 4,5 Meter? Im Hochformat?

Eigentlich gar nichts, außer man hat zu viel Geld oder will ein aufsehenswerte Ausstellung beschicken.
Die letzte Vergrößerung sollte nur ein Beispiel sein, was da für Bildinformationen drinstecken. Es war einfach so, dass mir das Querformat besser gefiel und wenn dies ohne Qualitätsverluste aus einem Hochformat zu machen ist, finde ich das prima.

Was hast du für ein tolles Objektiv drauf?

Es war ein Zeiss Vario-Sonnar T* 24-70mm f2.8 SSM bei Blende 8 und 70mm eingestellter Brennweite und dieses Objektiv hat teilweise mehr als 100 Linienpaare pro Millimeter Auflösung

Eine derartige Skalierung in Photoshop ist machbar, aber meines Erachtens in einem Schritt nicht sinnvoll

Da hast du vollkommen Recht, dass mache ich eigentlich auch nie, es sollte nur ein Beispiel sein und es ist absolut richtig, dass von Nicht's auch Nicht's kommen kann bei der Bildinformation der einzellnen Pixel, Wunderwaffe PS hin oder her

VG Arnulf
Auflösung Carl-Zeiss Vario-Sonnar T* 24-70mm f2.8
*******n_he Mann
282 Beiträge
@lupo
Okay, bei dem Objektiv kann man nicht von einer "Scherbe" reden *g*

Schön dass man auch mal Objektivdaten zu Objekivdaten bekommt, da halten sich die meisten Hersteller ja meist sehr bedeckt. Wäre übrigens auch eine schöne Abbildung für einen anderen Thread, bei ich gerade eine Bemerkung zu Randunschärfen beim Vollformat geschrieben hatte.

Danke für die Infos

lg

devotion_he
poste doch mal den Link, denn trotz Suche in diesem und in allen anderen Gruppen finde ich das Thema nicht

Edit:
ich habe es gerade gefunden:
Fotografie & Technik: Nikon D 300/s oder lieber Sony SLT 55
*******n_he Mann
282 Beiträge
jepp
Ist da aber nur Randthema *g*
*******dist Mann
354 Beiträge
Warum?
3. Eine derartige Skalierung in Photoshop ist machbar, aber meines Erachtens in einem Schritt nicht sinnvoll.
Ich nehme immer nur das Verfahren, die Bildgröße in Schritten um maximal 10% zu vergrößern und spätestens nach der 2. Skalierung eine Schärfung vorzunehmen.
Ich bekenne unwissend zu sein
Warum diese kleinen Schritte?
Das würde bei einer extremen Vergrößerung ja ewig dauern.
Nachschärfen mit welchem Filter und in welcher Stärke?
Ich würde mich mich über eine nachvollziehbare Antwort freuen.
Danke Stefan
*******n_he Mann
282 Beiträge
hm... gute Frage
Man könnte jetzt sagen Erfahrungswerte oder Bücher gelesen, aber ich versuche es mal zu erklären.

Man nehme mal ein Bild, welches nur aus 2 Pixeln besteht. Links ein schwarzer Pixel, rechts ein weißer Pixel. Jetzt vergrößert man das Bild auf einen Schlag auf 1000%. Man wird dann am Ende in der Breite 20, in der Höhe 10 Pixel haben. Woher kommen diese Zusätzlichen Pixel? Nun, sie werden errechnet vom Programm.

Betrachte mal die horizonale Axe des Bildes. Erst ist alles ganz einfach, links schwarz, rechts weiß. Jetzt muss das Programm die 18 Pixel zwischem dem linken schwarzen Pixel und dem rechten weißen Pixel errechnen. In den allereinfachsten Berechnungsmethoden würde folgendes passieren: das Programm füllt die fehlenden Pixel mit Zwischentönen. Das würde zu einem Verlauf zwischen Schwarz links und Weiß rechts führen. Woher soll das Programm auch erstmal wissen, welche Farbe diese Pixel haben sollen. Es ist ja nicht an sich intelligent.

Mal ein Beispiel was Photoshop mit der Einstellung bikubisch aus einem solchen beispielhaften Bild macht:
Beispiel einer bikubischen Interpolation bei Vergrößerung auf 1000%
*******n_he Mann
282 Beiträge
Ganz schön klein das Beispiel
aber man sollte trotzdem folgendes erkennen: es gibt tatsächlich einen Verlauf zwischen Weiß und Schwarz, wenn auch nicht ganz gleichmäßig. Das macht die bikubische Interpolation, die schon anhand der Algorithmen erkennt, dass ein linearer, gleichmäßiger Verlauf dem Ausgangsbild nicht angemessen ist.

Jetzt stelle man sich das Ganze bei einem wirklichen Foto vor, welches ratz-fatz in einem Schritt um 1000% vergrößert wird: man wird gerade an den Kontrastkanten zu Verläufen kommen, die eigentlich gar nicht da sind. Beispielsweise blone Haarsträhnen vor einem schwarzen Hintergrund. Die Kontrastkanten waschen aus.

Dem begegnet man üblicherweise durch Schärfung, denn Schärfen heißt im Wesentlichen Kontrastkanten (die Übergänge zwischen hellen und dunklen Bereichen) verstärken. Nur so kann man verhindern, dass diese Kontrastkanten bei der Vergrößerung unerwünschte "Verwässerungseffekte" zeigen.

Warum gerade 10% und nicht 20% oder 30%??? Okay, ich gebe zu, hier verlasse ich mich auf Tipps in Büchern *gg*

lg

devotion_he
*******n_he Mann
282 Beiträge
Gott oh Gott
"Axe" statt "Achse" und was da noch so für Klopfer drin sind.... ich schiebe das einfach mal auf die mir feindlich gesinnte Tastatur, das glaubt man bestimmt. Ist nur ein Netbook mit geringer eigener Intelligenz zum Tiefstpreis, manchmal weiß man halt erst hinterher worauf man hätte achten sollen..... *gg*
*******n_he Mann
282 Beiträge
@spasssadist
Zur Methode der Schärfung.... also ehrlich gesagt gibt es da ganze Bücher drüber, wissenschaftliche Abhandlungen und was weiß ich noch alles. Bin da selbst kein Spezialist, aber könnte meine Frau mal fragen.

Unscharf maskieren oder gar konvertieren in LAB, dann L-Kanal unscharf maskieren.... sowas in der Art *g*

PS: gut dass es die neue Rechtschreibung gibt, sonst wäre mir die Anhäufung der "s" wirklich unheimlich im Nick *gg*

lg

devotion_he
*******dist Mann
354 Beiträge
@ devotion_he,
danke für deine Erklärung.
Ich habe ja auch hin und wieder winzige Bilder größer gemacht (verdoppelt). Aber auf einen Schlag.
Ausgehend von der Prämisse die Pixel werden 1zu1 übenommen nur in der doppelten Anzahl.
Das ich mit dem Ergebnis nicht zufrieden war, ist nachvollziehbar,
dass das Programm einerseits so schlau und gleichzeitig blöde ist war mir nicht klar.
Aber jetzt habe ich einen neuen Ansatz, wenn ich mal wieder den wunsch verspüre.
Das Nachschärfen sollte ich wohl mit dem selektiven Scharfzeichner machen und an den Einstellungen herumprobieren was am besten passt.

Gruß Stefan
Anmelden und mitreden
Du willst mitdiskutieren?
Werde kostenlos Mitglied, um mit anderen über heiße Themen zu diskutieren oder deine eigene Frage zu stellen.