Bitteschön!

Manchmal macht ihr mich fertig. -.-

Für die, bei denen der Beitrag zum Blitzer direkt unter dem Bild aufgehört und direkt zum Kommentarfeld geleitet hat:

Hey, man kann das Kennzeichen nicht lesen!!!einself1! Quelle: Landkreis MOL

Bla Text Bla Bla.

28 Kommentare bis “Bitteschön!”

  1. Obscurum sagt:

    Also, ich wollte ja nur die Sitze im Kofferaum sehen *duck und weg*

  2. Arno sagt:

    Text Bla Text Text.

  3. leserin sagt:

    sash, wo kommen denn jetzt diese ziffern und buchstaben her? versteh ich nicht, schließlich konnte man dein kennzeichen doch am foto nicht erkennen!!1111111111

    so fein säuberlich „Bevor jemand jetzt gleich auf dumme Gedanken kommt:“ und dann direkt drunter der erste kommentar! sechsen, sechs 😀

  4. ednong sagt:

    Also so deutlich find ich das ja nun auch nicht. Ist bestimmt nachbearbeitet mit Photoshop 😀

  5. Wahlberliner sagt:

    Ich bin im Sommer auch mal nachts in Thüringen bei Leipzig geblitzt worden (merke: Wenn die da 80 draufschreiben, dann auch um halb 4 als einziges Auto auf der Autobahn dran halten!), hat nur 15 Euro gekostet, so gesehn war’s mir das Erinnerungsfoto auch wert 🙂
    Worauf ich hinaus wollte: Genau so ähnlich sah das bei mir auch aus! Auf dem Foto des gesamten Autos ist das Nummernschild (fast) nicht lesbar, und in der Vergrößerung dann so perfekt, dass man fast noch den TÜV-Stempel ablesen könnte (wenn er nicht hinten wäre ;))
    Ich frage mich wirklich, was das für eine Technik ist. Normaler Foto-Film (s/w) mit ISO 16000? Und dann soweit verdunkeln, bis der total überstrahlte Bereich vor dem Fahrzeug lesbar wird? Sitzt da jemand in der Dunkelkammer und entwickelt die Dinger von Hand? Oder ist das digital? (Müsste ja eigentlich, da ich zumindest keinen Blitz gesehen habe – und die Qualität ist bei meinem Foto noch etwas besser, weniger körnig.)
    Ich kann nur sagen: Ich bin beeindruckt, was die da für eine Technik auffahren! Und jetzt ist auch klar, warum so eine olle Blitzanlage gleich zig- bis hunderttausende kostet…

  6. Sash sagt:

    @Wahlberliner:
    Ich gebe zu, ich habe von der Technik keine Ahnung. Aber ich halte es nicht für ausgeschlossen, dass die einfach mehr als ein Foto mit unterschiedlichen Einstellungen machen …

  7. Apotheker-Typ sagt:

    @Wahlberliner und Sash
    Beides falsch. Sorry. Wenn es noch Blitzen sind, die einen „handelsüblichen Rollenfilm“ mit mehreren 100 Bildern verwendet, reichen locker zwischen 400-1600ASA. Warum? Ganz einfach: es blitzt!
    Wenn es eine modernere Blitze mit CCD-Chip ist, reicht auch die äquivalente 100ASA-Einstellung. Ich würde aber auch hier sa ca. 400ASA als Grundeinstellung vermuten.
    Wenn es eine „dunkel-Blitze“ ist, die wirklich Infrarot verwendet, ist es auch nix anderes.. nur dass der Infrarot-Sperrfilter vor dem CCD-Chip weggelassen wurde…

    Warum ist das das Auto-Bild nun so schlecht und das Kennezeichen so gut? Ganz einfach. Ein Negativ – so wie auch eine Foto-Rohdaten-Datei („RAW“) enthält viel mehr Information, als ein normales Graustufenfoto oder erst recht ein Monitor darstellen kann. Die Idee ist, dass für jedes s/w-Pixel 1Byte, also 8bit, also 255 Helligkeitsstufen zur Verfügung stehen. Moderne Kameras arbeiten aber durchaus mit 12bit oder 16bit Helligkeitstiefe pro Pixel. Ein Negativ hat einen Kontrastumfang von ungefähr 10 (Blendenstufen), ein Fotoabzug ca. 8, ein Monitor ca. 5, ein s/w-Laserfoto würde ich auf so 3-4 einschätzen. Um die „fehlenden“ Blendenstufen darzustellen, wird das Bild nach im Kontrast nach oben und unten „beschnitten“. Dass will heißen: über einer Helligkeit X wird alles weiß, alles unter einer Helligkeit Y wird einfach schwarz, und der Bereich zwischen X und Y wird dann auf die 255 Helligkeitsstufen aufgeteilt. Dabei geht viel Information verlohren. Beim Auto-Foto suche ich also einen möglichst breiten Helligkeitsbereich, den ich aufteile, um das Auto, den Fahrer und die Umgebung abzubilden. Beim Kennzeichen suche ich mir für die „Entwicklung“ einen so angepassten Helligkeitsbereich, dass ich nur das Kennzeichen klasse abbilde. (würde ich diese Parameter auf ds ganze Bild anwenden, wäre es hoffnungslos unterbelichtet.)

    Es ist also tatsächlich eine Art „Bildbearbeitung“ aus nur EINEM „Roh-Foto“, vergleichbar mit unterschiedlicher Entwicklung der Abzüge im Labor. Dazu braucht man aber nur die Regler „Helligkeit“, „Kontrast“ und wenn man es richtig gut machen will die „Wertetabelle“ bzw. „Wertekurve“. Kann jeder mit einer pupsnormalen RAW-Fotodatei, wie sie etwas bessere Cams hergeben, und einem RAW-Entwicklungsprogramm (z.B. „Ufo“ oder „Lightroom“) selbst ausprobieren…

  8. Apotheker-Typ sagt:

    @Sash: Huch, ich hab mich bei Deinem Post verlesen. Du hast natürlich Recht. Ein Foto pro „Person“… 🙂

  9. Wahlberliner sagt:

    @Apotheker-Typ: Danke für die ausführliche Erläuterung, so wird es klar. Ist trotzdem „High-Tech“ 😉
    Und ja, diese Regler habe ich selbst sogar in GIMP schon mal gesehen, wobei ich nicht weiß, ob das auch RAW Bilddateien verarbeiten kann, oder ob es ein (Bild-)Dateiformat gibt, wo diese Informationen trotzdem enthalten bleiben, welches aber von Programmen wie GIMP verarbeitet werden kann (ich vermute mal nein, da die üblichen Bilddatei-Formate wohl auf die Ausgabe am Monitor „zugeschnitten“ sind).

  10. Wahlberliner sagt:

    @Sash: Ich sehe grad, die Uhr von Deinem Webserver geht noch nach der Sommerzeit! 😉

  11. Sonnenschein sagt:

    @Wahlberliner
    „in Thüringen bei Leipzig“? Da wohne ich als Wahl-Leipzigerin wohl seit vier Jahren im falschen Bundesland 😉

  12. Apotheker-Typ sagt:

    @Wahlberliner
    1) Mit Gimp kannst Du RAW-Dateien ohne Weiteres NICHT verarbeiten. Aber Du kannst z.B. das Programm „UFRaw“ als Plugin installieren. Dann geht es. Profis nehmen aber meist „Lightroom“ oder durchaus auch den RAW-Converter des Cameraherstellers. (RAW-Dateien sind Hersteller- und Kameraspezifisch durchaus sehr unterschiedlich. Canon z.B. bietet für seine *.cr2-Dateien die Software „DPP“ an, ein kostenfreies Prog mit recht guten Algorhythmen. Aber die CR2-Datei der EOS-350D weicht von der CR2-Datei der EOS-5D³ dramatisch ab, man sollte also im Zweifelsfall immer die neueste Version insallieren. Es ist tatsächlich so, dass selbst Profi-Programme nach Erscheinen neuer Kameramodelle ein Update brauchen, da die „neuen“ RAW-Datei-Algorhythmen immer erst programmtechnisch erfasst werden müssen.) Öhm, ja ich hab ne EOS. 😉
    2) Alle Bilddateien werden durch die Grafikkarte auf die Ausgabeleistung des Monitors zugeschnitten. Es gibt Profi-Monitore mit einem wesentlich höheren Blendenumfang – die sind aber nicht nur SEHR teuer, man braucht auch spezielle (und ebenfalls sehr teure) Grafikkarten, um diese Monitore sinnvoll nutzen zu können. (Und wenn man sich diesen Aufwand schon ans Bein bindet, sollte man sich auch gleich ein Farbkalibrierungssystem zulegen, um die Kamera, den Monitor und den Drucker (bzw. Fotoentwickler o.ä.) auf die gleichen Farb- und Helligkeitswerte zu kalibrieren. Sonst sind diese Ausgaben soweiso für die Katz. – Ein nicht kalibrierbarer Amateur-Drucker würde alle erwähnten Investitionen davor dann ad absurdum führen.) Den Dynamikumfang eines Bilds auf einem Monitor zu beurteilen ist immer nur eine Näherung. Jeder halbwegs gute Fotoabzug schlägt eine Monitorwiedergabe um Längen. BtW, ich hab nen ganz normalen Rechner, nen pupsnormalen Monitor und keinen drucker im Haus… 😉

  13. Wahlberliner sagt:

    @Sonnenschein: Whoopsie, da hast Du natürlich recht.
    Ich passiere diesen Teil von – ähem, wird das noch „Dunkeldeutschland“ genannt? 😉 (SCNR) – normalerweise immer nur auf der Durchreise. Ich weiß, da kommen irgendwann verschiedene Sachsens und Thüringen, und dann bin ich in Hessen (meiner Ursprungs-Gegend). Ich konnte mir aber nie ohne auf die Karte zu schauen merken, was wann kommt, und welche Stadt wozu gehört…

  14. Wahlberliner sagt:

    @Apotheker-Typ: Danke für das umfassende Detailwissen. Auch ich werde nur theoretisch davon gebrauch machen, da ich weder das Geld für so eine Profi-Ausrüstung habe, noch glaube ich, überhaupt eine Kamera zu besitzen, die Bilder im RAW-Format speichern kann 😉 Ist aber gut, mal einen Überblick zu haben. Interessant wäre es allerdings noch, in wieweit sich diese Farbräume auf dem menschlichen Auge „abbilden“, denn das sollte ja die Referenzgröße sein (und welchen Farbraum haben die Augen eigentlich? Wieviel Bit Helligkeitstiefe haben sie? Und was ist, wenn man nun Farbenblind wäre? ;-))

  15. Sonnenschein sagt:

    @Wahlberliner
    Kein Problem, kann ja mal passieren 🙂 ich fands nur lustig zu lesen…

  16. Sash sagt:

    @Apotheker-Typ:
    Danke für die ausführlichen Infos!

  17. Apotheker-Typ sagt:

    @Wahlberliner: Forderst Du mich gerade heraus? *grins*

    1) Viele Kameras, die nicht unter „Profi-Ausrüstung“ fallen, können heutzutage schon RAW. Da dieses Datenformat aber wesentlich größer ist als das JPG (je nach Bild und ISO-Zahl die ca. 2,5 bis 5fache Dateigröße), und da diese Daten ohne sinnvolle Zwischenverarbeitung einfach „unnütze“ Dateien sind, werdem die nur von Leuten benutzt, die sich mit dem Fotografieren hobbietechnisch auseinandersetzen. Wenn Du weißt, was ein Histogramm ist, und was Du auf die Schnelle daraus ableiten kannst, bist Du ein Kandidat für die RAW-Nutzung. Ansonsten eher nicht. Einigen Kameras kann man RAW auch beibgringen – bei Canon gibt es das CHDK (Canon Hacker´s Development Kit) – mit einem losen Zusammenschluss von Programmieren, die Alternativen zur Firmware programmieren, und den Cams so Zusatzfunktionen beibringen.
    2) Der Farbraum des menschlichen Auges ist nicht so leicht zu definieren. Er ist genetisch bedingt abhängig (so gibt es einen Urwaldstamm, der nachweislich mehr Grüntöne unterscheiden kann als der Mitteleuropäer, dafür aber schlechter bei Blautönen ist.) Hinzu kommen die angedeuteten Farbfehlsichtigkeiten (dazu gleich mehr). Prinzipiell ist es aber so, dass ein Mensch Farbunterschiede wesentlich besser wahrnehmen kann als Helligkeitsunterschiede. Daher wird bei IR-Kameras (wie bei der Feuerwehr, bei Häuserhermografie-Bildern oder in bestimmten Nachtsichtgeräten) ein Falschfarbenbild erzeugt, in dem jedem ermittelten Grauwert ein Farbwert zuegordet wird (z.b. 0°C = dunkelblau -> grün -> rot -> 100°= hellgelb). Allgemein geht man davon aus, dass bei 16Mill. Farben noch Farbkanten wahrgenommen werden könn(t)en, bei 32Mill. Farben aber nicht mehr. Deswegen ist auch die Entwicklung bei Grafikkarten und Monitoren bei 32Mill. Farben bisher hängen geblieben. Die unterschiedlichen Farbräume (sRGB, AdobeRGB, CMYK usw.) sind eher von technischem Aspekt und hängen sehr von dem Einsatzgebiet ab, da sie aus unterschiedlichen „Farbmischtheorien“ resultieren.
    2a) Bei RGB setzten sich die Farben aus RotGelbBlau zusammen, es handelt sich um ein „additives“ Farbmischsystem. Ist keine Farbe anwesen, ist der Pixel schwarz, sind alle 3 Farben vollständig abwesend, ist der Pixel weiß. Hierbei werden die Wellenlängen des Lichts betrachtet, die von den Pixel aktiv AUSGESENDET (oder von einer reinweißen Fläche reflektiert) werden. (Also nimmt man diesen Farbraum für „selbstleuchtende“ Gegenstände wie Monitore, Fernseher usw.)
    2b) Bei CMYK wird die Farbe aus CyanMagentaYellowKey(plate) zusammengesetzt, es handelt sich um ein „subtraktives“ Farbmischsystem. Die „Keyplate“ betrachtet zumeist den Schwarzanteil des Bildes. Bei Abwesenheit aller Farben ist der Pixel weiß („Grundfarbe“), bei Anwesenheit aller Farben ist der Pixel schwarz. Da aber CMY gemischt eher ein dunkles blassbraun ergeben, wird schwarz separat bearbeitet, um einen satten Schwarzkontrast zu gewärleisten. Hierbei wird als Grundlage betrachtet, welche Wellenlängen von der Farbe reflektiert (und absorbiert) werden. Hieraus folgt, dass es hauptsächlich bei drucktechnischen Verfahren verwendet wird.
    2c) Es gibt noch ein paar andere Farbsysteme, die alle unterschiedliche Vor- und Nachteile haben. sRGB hat einen Nachteil im (theoretischen) Grünbereich. CMYK braucht einen zusätzlichen Datenbereich gegenüber RGB usw.
    2d) Die Umrechnung der Farbsysteme ist meist mit Datenverlust verbunden, weswegen man gewöhlich alle Bearbeitungsschritte erst einmal in einem Farbmodell durchführt, und als allerletzten Schritt die Umsetzung in das anschließend benötigte Farbmodell durchführt.
    3) Farbfehlsichtigkeit ist meist genetisch bedingt. Absolute „Farbenblindheit“ ist sehr selten bei Menschen. Diese Menschen sehen tatsächlich die Welt wie in einem Schwarz-Weiß-Fernseher. Am weitesten verbreitet ist die Rot-Grün-Sehschwäche. Es handelt sich um einen Gen-Defekt auf dem X-Chromosomen, man muss als nicht viel Pech haben, um sie als Mann abzubekommen (man hat ja nur ein X-Chromosomen). Bei Frauen ist die Erkranking seltener, da sie zumeist durch ein nicht defektes X-Chromosomen (Frauen haben ja zwei davon) ausgeglichen wird. Der Gendefekt ist rezessiv. Wie kann man sich das nun vorstellen? Es ist NICHT so, dass die Betroffenen kein Rot und kein Grün sehen können. Aber wenn ein Rotton direkt neben einem Grünton liegt, und diese die selben GRAUwerte haben, ist der Farbübergang für einen Rot-Grün-Fehlsichtigen nicht zu erkennen, die Kontrastkante verschmimmt, die Form wird nict ausgemacht. (Anmerkung: Dafür können oft besser Kakhi-Farben wahrgenommen werden, und diese Menschen können oft besser Formen wahrnehmen. Deswegen lassen sich Rot-Grün-Schwache weniger von Tarnfarben täuschen.) Wenn man soetwas mal simulieren will, einfach mal eine Brille mir roten oder grünen Folien (bede Augen gleich!) aufsetzen, und durch die Landschaft laufen. Ach ja… und man darf fahren, wenn es unten, und muss bremsen, wenn es oben an der Ampel leuchtet! 🙂
    Die Gelb-Blau-Fehlsichtigkeit lass ich jetzt mal weg….
    4) Wieviel Bit Helligkeits-Sehtiefe hat man? Hehe. Diese Frage ist nicht nur gut, sie läßt sich auch nicht korrekt beantworten. Warum? Weil der Durchschnittsmensch eine Bildnachbearbeitungs-Hard-und-Software am laufen hat, von der Grafikfirmen nur träumen können, und die mehrere Millionen Jahre evolutionär optimiert wurde. Wenn man mit einer Kamera ein Bild aus mehreren unterschiedlich belichteten Bildern zusammensetzt – oder dieses nachträglich an einem Compi macht – (HDR[I]- High-Dynamic-Range-[Image] oder DRI – Dynamic-Range-Image kann man sowas nennen), dann simuliert man nur, was das Gehirn die GANZE ZEIT im Hintergrund macht. Es werden die unterschiedlichsten Bildteile mit unterschiedlicher „Belichtung“ im Gehirn abgelegt, übereinandergelegt, verarbeitet, und zu dem vermischt, was wir „Seheindruck“ nennen. So etwas kann man bisher nur mit der HDR-Technik simulieren.

    So…. alle Klarheiten beseitigt?

    @Sash – wenn mir hier weiter so knappe aber so umfangreich zu beantwortende Fragen gestellt werden, musst Du neuen Serverplatz mieten…. 😀

  18. Apotheker-Typ sagt:

    Nachtrag: Ich hab mich voll verhauen…. RGB ist natürlich Rot Grün Blau. Ich -> Trottel!

  19. Sash sagt:

    @Apotheker-Typ:
    Auch wenn deine Kommentare beeindruckend sind: bis Du es mit meiner Geschwätzigkeit hier im Blog aufnehmen kannst, ist es noch eine Weile hin. Und für meinen Umsatz an Worten reicht mein Server noch ein paar Generationen 😉

  20. Wahlberliner sagt:

    @Apotheker-Typ: Wow, als Provokation wollte ich meine leicht spaßig gemeinten Fragen eigentlich nicht verstanden wissen, aber diese Fülle an Informationen ist mal wirklich interessant und sehr lesenswert! Danke dafür! Ich verspreche auch, jetzt keine Fragen mehr zu stellen, um Sash’s Serverplatz zu sparen (auch wenn er genug davon hat, wie er sagt) 😉

  21. Apotheker-Typ sagt:

    @Sash: Ist ja DEIN Blog und DEIN Serverspace, also darfst DU auf jeden Fall so viel tickern, wie Du magst. Aber ich nehm das jetzt mal als Erlaubnis, weiter ausgiebige Antworten scheiben zu dürfen, wenn ich denn so ein klein wenig Ahnung vom Thema zu haben meine.

    @Wahlberliner: Tue Dir keinen Zwang an – Sash hats erlaubt….

    @beide: Semi-Profi-Equipment ist nicht so teuer wie man glaubt. Im Markt, der für sehr reale Preise wirbt – ob die wirklich so sind, sei jetzt nicht beurteilt – soll es nächste Woche ne Nikon D3000 für um die 300€ geben. Das ist zwar nicht das aktuelle Modell – und ich selber bin ja eh Canon-Fanboy und spar für ne EOS-6D – aber das ist ne gute Digitale-Spiegelreflex-Cam für nen sehr guten Preis. Es gibt schlechtere Kompakte für teurer Geld. Aber, und das sei als Hinweis und bitte nicht als Warnung verstanden: Wer keine Lust hat, sich mit den Auswirkungen von Blende(nzahl), Verschlusszeit und („Film“)Empfindlichkeit auf Dinge wie Schärfentiefe und Verwacklungsunschärfe zu befassen, sollte dieses Geld anderweitig investieren… Wer eine DSLR nur im Vollautomatik-Modus betreibt, braucht seinen AudiR8 auch nur, um durch die 30er Zone zum Bäcker zu kommen…

  22. Wahlberliner sagt:

    @Apotheker-Typ: Eigentlich ist es ja bloß jede Art von Technologie, die mich interessiert. Selbst besitzen tu ich eine alte Canon-Kamera von 2007 oder so mit 5 Megapixeln und „alles-Automatik“-Modus, die ich praktisch nie benutze, und die Kamera in meinem N900, die mir bisher auch für alles ausgereicht hat, und den Vorteil hat, immer dabei zu sein. Wenn ich Dich aber noch fragen darf, dann wäre mal die Meinung eines zum Thema bewanderten Menschen über die Seite 6mpixel.org recht interessant. Ob es bei kompakten Digitalkameras wirklich so ist, dass jeder Bildsensor mit mehr als 6 Megapixeln nur zu schlechteren Ergebnissen führt, die dann von der Rechentechnik wieder ausgeglichen werden müssen? Ich weiß, dass die Anzahl der Bildpunkte ab einer gewissen Menge nicht ausschlaggebend ist, sondern lediglich vom Marketing als „Schlag-Faktor“ eingeführt wurde, um Produkte mit „mehr=besser“ zu präsentieren, ähnlich wie GHz bei CPUs, und dass es wesentliche andere Faktoren gibt, die zur Güte eines Bildes weit mehr beitragen. Ich frage mich halt nur, warum die Entwicklung von kompakten Digitalkameras dann derzeit trotz dieser Tatsache erst beim Doppelten oder sogar noch etwas mehr „stehen geblieben“ zu sein scheint. Mein Interesse wied jedoch wie gesagt rein theoretischer Natur bleiben, ich werde wohl eher nicht zum passionierten Hobbyfotographen werden 😉

  23. Apotheker-Typ sagt:

    @Wahlberliner
    Das mit den Megapixeln ist ein zweischneidiges Schwert. Denn es geht nicht um die MP allein, sondern auch um die Sensorgröße, auf denen die MP untergebracht sind. Meine EOS-350D hat einen APS-C-Sensor, der ist 1,6x kleiner als ein Kleinbildnegativ. In meiner Kamera kommt der auf 8MP, und soweit ist das nicht verkehrt. Eine EOS-7D hat auch einen APS-C-Sensor, kommt aber auf 18MP bei ziemlich guter Bildqualität. Dazu muss man aber auch sagen, dass zwischen den beiden Cams mehrere Jahre Entwicklung liegen.

    Wenn ich jetzt aber sehe, dass eine Kamera mit einem 21,5x kleineren Sensor (1/3,2″ -> APS-C) die gleiche oder eine höhere Pixelzahl hat, frage ich mich echt, ob das Sinn macht. Spätestens, wenn die Einzelsensorpunkte kleiner werden als der Beugungskreis eines einzelen Photos, also jedes einzelne Licht“teilchen“, automatisch mehrere Sensorpunkte trifft – und soweit ist die Technik bereits – dann wird das Bild selber nur noch durch Extrapolations sehenswert. Die Regel ist da recht simpel: Um so kleiner der Sensor und um so mehr Pixel, um so blasser und verwaschener werden die Bilder. Allerdings sollte man auch bedenken: Um so größer der Sensor, um so größer die Kamera drumrum, und um so größer (und damit höchstwahrscheinlich teurer) das Linsensystem davor.

    Ein simpler Merksatz ist da recht einfach zu berücksichtigen: Mehr MP machen das Bild nicht unbedingt besser, und wenn man mehr „Vergrößerung“ braucht, sollte man ein Objektiv mit mehr Brennweite (oder eine Vorsatzlinse zur Brennweitenverlängerung) nutzen.

    Aber die Sensorgröße hat halt noch andere Einflüsse. So ist es so, dass die Brennweite einer Kamera immer umgerechnet auf die Kleinbildkamera angegeben wird. So wird der Zoom einer 1/3,2″-Cam mit 1,3-14mm angegeben als 28-300mm. Rein technisch ist das auch pseudokorrekt, aber bei 1,3 wie auch bei 14mm ist nun mal alles scharf von 1m bis unendlich. Genau das will aber der DSLR-Fotograf nicht. Wenn ich ein 300mm-Objektiv draufschraube (was an APS-C rechnerisch 480mm ergibt), habe ich bei Blende 11 eine Schärfentiefe z.b. von ca. 5,9-6,11m, also gerade mal 21cm scharf – alles dahinter und davor wird unscharf, um so weiter weg, um so „schlimmer“. Der Kompaktknipse-Nutzer will sowas nicht, der DSLR-User ist begeistert…

    Insofern geiere ich tatsächlich nach einer „Kleinbild“-DSRL, einfach damit 24mm wieder 24mm sind. Bisher waren diese Cams rein technisch weit außerhalb meines Geldbeutels – auch als Hobby, in das man gerne mal etwas mehr Geld steckt. Die 6D, so sie denn entlich auf dem Markt sein wird – und dann etwas im Preis absackt – ist dann schon eine tolle Sache (meiner Meinung nach), aber da ist es wie mit allem im Leben: Jeder wünscht sich etwas anderes.

  24. Sash sagt:

    @all:
    Ich bitte zur Kenntnis zu nehmen, dass ich mich freue, dass bei GNIT unter einem Blitzerfoto nicht über Gegenblitzer, Abzocker und Rekorde in der 30er-Zone diskutiert wird, sondern über Digitalkameratechnik. 🙂

  25. Apotheker-Typ sagt:

    @Sash: Das hat einen ganz einfachen Sinn:
    – Abzocke(r): funktioniert eh (und kann man nichts gegen machen)
    – Gegenblitzer: funktioniert eh nicht (und kann man nichts für machen)
    – Rekorde in der 30-Zone: Machen wir sowas? Ich glaube, nein. Sonst würden wir uns in einem anderen Blog trollen…

  26. hans sagt:

    Ha, deshalb nennst du das Auto auch den 1925er! Ich dachte, das wäre eine Modellbezeichnung von Mercedes. 🙂

  27. Sash sagt:

    @hans:
    O wow, der hat lange gedauert 🙂
    Falls ich noch ein Geheimnis lüften darf: das ist auch die Konzessionsnummer.

  28. Sash sagt:

    @hans:
    Und PS: es ist auch kein Mercedes! 😀

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

%d Bloggern gefällt das: