Hi,
so eine Diskussion kann sehr philosophisch werden... Letztendlich muss man sich klarmachen, was physikalisch, bioligisch und elektronisch dem Ganzen zu Grunde liegt. Dann kommt man drauf, dass es keine allgemeingültige Antwort gibt, und man - um halbwegs eine Aussage machen zu können - eine normierte Referenz angeben muss (müsste). Damit ist nicht eine "Farb-Referenz" (RAL, etc.) gemeint, sondern die normierte Umgebung, sprich das Licht, denn...
1. Ein Objekt hat keine "Farbe". Es absorbiert, reflektiert, luminiert und phosphoresziert. Das heißt, es filtert Teile des einfallenden Lichtes aus, spiegelt Teile dieses zurück, oder wandelt es in eine andere Wellenlänge (UV => Sichtbares Licht). Das, was an EM-Wellen ins Auge gelangt, interpretieren wir dann als Farbe.
2. Das menschliche Auge adaptiert sich an unterschiedliche Lichtfarben. Ein Blatt Papier (oder ein "weißer Pilz") ist ist daher für den Menschen immer irgendwie "weiß", obwohl es physikalisch das Rot/Gelb/Blaustichige Licht von Sonne, Röhre, LED... reflektiert.
3. Die Elektronik (Kamera) nimmt "eiskalt" auf, was physikalisch vorhanden ist. Der oben gezeigte "grünstichige" Pilz ist physikalisch korrekt so aufgenommen! Das Licht im Wald ist nunmal tatsächlich so grün. SISO-Prinzip: Shit in, Shit out Das Gehirn filtert das aber weg!
Dazu kommt, dass eine Kamera/Monitor sowieso nur einen beschränkten Farbraum aus -salopp formuliert- 3 schmalen "Peaks" (Rot+Grün+Blau) hat. Das menschliche Auge ebenfalls (aber etwas breiter). Bsp.: Ein echtes Violett (Veilchen), oder einen Neon-Textmarker kann man nicht originalgetreu fotografieren, geschweige denn ausdrucken. Der Farbanteil von Pflanzen und Pilzen, der z.B. durch UV-Anregung gewandelt wird (Blüten und Pilze), wird auch unter der Glühbirne zuhause nicht mehr vorhanden sein, da diese kein UV abstrahlt.
Durch den nachgeschalteten Weißabgleich wird lediglich der menschlichen, subjetiven Wahrnehmungserfahrung genüge getan, tatsächlich aber die physikalisch korrekte Datenbasis zerstört. Tendenz: Je "professioneller" die Kamera, desto weniger "Autokorrektur". Drum sind die Handybilder meistens auch gleich so "richtig". Der Handy-Nutzer will schließlich hinterher nicht mit irgendwelchen Weiß-Abgleichen und Farbstichen rummachen...
=> Deshalb die Referenz. Man muss -streng genommen- die normierte Lichtfarbe (z.B. D50, D65... [Daylight 5000/6500K]) mit angeben, bei der z.B. Fotografiert wurde, und auf die man umrechnet.
4. Farbkaibrierung von Kamera, Monitor und Drucker: das dient wiederum nur dazu, die Referenz (normierter Farbraum und Lichtfarbe) diesen Geräten aufzuprägen. Nützt auch nur denjenigen, deren Monitor genau so kalinriert ist. Alle anderen sehen beliebige Farbstiche...
Ich selbst fotografiere vor Ort meistens mit Handy (S6) und im Detail zuhause dann mit richtiger Ausrüstung (Canon SLR / Passiv-Blitz / Farbkalibrierung [XRITE])... Und wundere mich dann, dass die Handybilder immer so gut aussehen, und die eigentlich besseren immer so komische Farben bekommen Handybilder mit geeignetem Handy sind teils echt super!
Für mich persönlich hat sich ein manueller Weißabgleich auf ein normales, weißes Papier und indirekter Blitz als beste Lösung herausgestellt.
Außerdem empfehle ich, RAW zu fotografieren. Dann kann der Weißabgleich hinterher vorgenommen werden und wird nicht schon im JPG verhäckselt
Um auch nochmal auf den Topic-Anfang zurück zu kommen:
Man braucht nicht unbedingt RAL-Karten. Wenn Kamera und Monitor kalibriert sind, kann man den Farbwert notfalls als RGB-Wert, CMYK oder sonst wie angeben, solange man eben den Farbraum und sonstige Umgebungsbedingungen (Lichtfarbe) angibt.
[u]
__
Habe mir erlaubt, das Bild von Pablo (hoffe das ist ok?) aufzugreifen; von oben nach unten "Nackte Tatsache" - "Was die künstliche Inteligenz vorschlägt" - "Was der Mensch zu sehen glaubt" (manuell getrimmt) => Mir dünkt, dass man zur physikalisch inkorrekten, aber am besten aussehenden Variante tendiert ;)?