Aller au contenu

Forum Olympus France utilise des cookies. Lisez notre Politique de confidentialité pour plus d'informations. Pour supprimer ce message, merci de cliquez sur le bouton   :    J'accepte l'utilisation de cookies

Photo
- - - - -

E-5 testé par Dxo : mauvaises données ou suis-je nul ?


  • Veuillez vous connecter pour répondre
22 réponses à ce sujet

#21 Komm

Komm


  • 5 163 messages

  • Genre : Homme

  • Votre pays :

  • Région : Île de France

  • Appareils : Panasonic GM5

Posté 07 janvier 2014 - 01 : 00

Hello hello! Je ne suis pas expert non plus, mais je vais essayer de répondre point par point :)

[quote name='LeoOfZuiko' timestamp='1389033495' post='355429']
Je sais par exemple que le CMOS fut utilisé pour des raisons de coût inférieur par rapport au CCD (moins de consommation d'énergie pour le CMOS, le CCD plus utilisé dans les compacts), que le Fovéon avait sa technique bien appart en superposant 3 couches correspondant aux 3 couleurs primaires (RVB) même si je ne suis pas bien convaincu par les couleurs des photos via ce capteur.
[/quote]
Pour le live view aussi.

[quote name='LeoOfZuiko' timestamp='1389033495' post='355429']
Je me souviens bien que Zuiko avait opté pour des optiques qu'ils avaient appelés "télécentriques" qui de par leur construction, d'après ce que j'avais compris, permettait au posemètre incorporé au reflex E System une mesure des rayons quasiment à la verticale faisant un peu "l'équerre". Mais comme je crois savoir que la qualité de toute optique se passe avant tout au centre, j'ai toujours pensé que c'était pour cela que Zuiko avait pris la décision d'opter pour une surface photosensible évitant justement la conversion de la lumière en courant électrique pour ce qui concerne des rayons lumineux passant par les bords des objectifs interne à l'optique.
J'ai le sentiment que tu fais référence à cela lorsque tu me parles de capteur plein format et de longueur focale. Est-ce qu'en numérisant à très courte focale via un capteur 24mm X 36mm, le changement de la vitesse de propagation des photons sur les côtés de l'optique donnerait trop de rayons réfractés incontrôlables ? Mais alors là c'est vraiment une question pour essayer d'arriver à comprendre... On est surtout dans la physique.
[/quote]
En très gros, le principe des optiques télécentriques est de faire arriver tous les rayons (y compris et surtout sur les bords) de manière parfaitement perpendiculaire au capteur. Ce qui est compliqué car les rayons lumineux arrivent de manière oblique sur l’objectif. Les lentilles doivent donc “convertir” ces rayons obliques en rayons parrallèles.
Image Externe Image Externe
(Trouvé sur http://www.optotelec...ecentrique.html)

Pour en revenir à nos chers appareils photos, j’ai toujours été très très circonspect sur cette pseudo-télécentricité des optiques 4/3. D’une part elles n’étaient pas strictement télécentriques et d’autre part c’était quand même du bla bla marketing. C’était surtout une bonne excuse pour Olympus pour ne pas aller au delà de F2, ce que j’ai toujours trouvé regrettable sur un capteur aussi petit que le 4/3. Apparemment, ils ont décidé de refaire la même chose sur le micro 4/3, ce que je ne comprends toujours pas.

Par ailleurs, Leica arrive à gérer 24MP sans conception télécentrique. Disons qu’au dessus de 35mm / 36MP sur un capteur full-frame, ça passe sans problème. En dessous, on peut se contenter d’ouvertures plus modestes. Mais clairement, certains grands-angles sont à la peine sur les capteurs très pixellisés 24x36. Pour y remédier, une solution courante est d’utiliser des solutions dites “retrofocus”, c’est à dire en téléobjectif inversé. Cela semble mieux passer sur le capteurs très définis (un téléobjectif est par définition plus télécentrique qu’un grand angle).


[quote name='LeoOfZuiko' timestamp='1389033495' post='355429']
Ah ben alors ça oui ! Je me souviens bien des 3 couleurs primaires (rouge vert bleu) via un filtre placé devant le capteur (sinon on numériserait en niveaux de gris) permettant de pouvoir filtrer l'ensemble des photons ayant un champ électromagnétique avec une longueur d'onde comprise entre 400 et 700 nanomètres (d'où les différentes couleurs), et même plus, mais on m'avait enseigné que les optiques et le capteur bénéficiaient d'une protection pour les photons ayant une fréquence d'oscillation plus large que la vue humaine (c'est à dire si je ne me trompe pas inférieure à 428.5 billions d'oscillation à la seconde pour les infrarouges et supérieure à 750 billions d'oscillations pour les ultraviolets).
Je sais qu'il faut 4 photosites pour faire un photosite principal (1 rouge, 2 verts, 1 bleu pour former un carré). Je suppose qu'à cette étape, certains photosites vont être frappés plus que d'autres afin d'obtenir un pourcentage et former un photosite principal d'une couleur précise. Est-ce que j'ai juste ? Cette couleur d'ailleurs qui ne sera que fidèle à la réalité que si le réglage de température de couleur correspond bien à l'illuminant (simplifions en disant que l'on est dans une situation où il n'y a qu'un seul illuminant).
[/quote]
Le mélange est effectué selon la matrice de bayer : http://fr.wikipedia....atrice_de_Bayer (sauf les Fuji X qui ont une matrice différente, supposément plus performante). Il y a plus de vert car je crois que les capteurs captent moins bien cette longueur d’onde.

[quote name='LeoOfZuiko' timestamp='1389033495' post='355429']
La lumière est donc convertie en courant électrique après avoir déjà eue sa couleur de créée au préalable. Mais alors comment se fait-il que lorsque nous avons un fichier brut de traitement à savoir l'intégralité des informations saisies par le capteur, que l'on puisse en logiciel de post production pouvoir changer la température de couleur (balance des blancs). Sur le plan physique, je ne comprends pas comment est-ce que j'arrive à le faire avec Olympus Viewer 2 par exemple puisque logiquement, la couleur d'un photosite ayant déjà été "construite" avant la passation lumière/courant électrique, on devrait plus pouvoir le faire puisque ça se passe avant la numérisation justement. Avec la pratique photo que j'ai, je sais bien que c'est faux, mais je veux dire "du point de vue la physique", ça je ne saurais pas expliquer comment j'arrive à le faire par contre.
[/quote]
Je pense que c’est en changeant la pondération de chaque photosite pour créer le pixel final? Mais ce n’est qu’une hypothèse!


[quote name='LeoOfZuiko' timestamp='1389033495' post='355429']
En fait le fichier RAW se rappelle de la manière précise de comment chaque photosite 1R 2V 1B a été frappé en fait...
[/quote]
Oui.


[quote name='LeoOfZuiko' timestamp='1389033495' post='355429']
Je sais que les JPEG, TIFF tout ça ne sont que des développements et non le fichier d'origine (tout ça je le sais) mais par contre je ne peux pas dire que tout soit clair en moi niveau physique.
[/quote]
Le JPEG (ou autre) résulte en fait du mélange des différents photosites colorés en pixels (la pondération de chacun), ainsi que de leur luminosité (par exemple, éclaircir les ombres). Tout ceci dépend du processeur de l’appareil ou du logiciel de post traitement et peut donc être plus ou moins performant à capteur équivalent.


[quote name='LeoOfZuiko' timestamp='1389033495' post='355429']
[quote="Komm"]Problème : une fois obtenus, ces électrons doivent sortir du capteur. Pour ce faire, ils doivent passer par de la circuiterie (en métal) qui va les acheminer en dehors de la surface photosensible. Celle-ci, selon la conception du capteur peut être au dessus (on dit que le capteur est BSI : backside-illuminated) ou en dessous (c'est le cas sur les capteurs de plus de 1" - donc micro 4/3 y compris - pour des raisons de cout).[/quote]

Ah voilà ! C'est là que je confonds les circuits en métal avec le processeur puisque moi question hardware je n'y connais rien du tout. Donc ce sont les circuits électroniques qui sont autour du capteur qui vont permettre de pouvoir éjecter plus ou moins efficacement les pixels (je pense que l'on peut dire pixel à ce stade) de la zone de numérisation ? Je suppose que ce circuit soit situé en-dessus ou en-dessous de la zone de numérisation du capteur, que ça ne fait pas de différence d'efficacité de toute façon ? Donc BSI ou pas BSI reviendrait au même en terme d'efficacité quoi...
[/quote]
Alors déjà j’ai fait une erreur. Dans un capteur BSI, la circuiterie est en dessous du sillicium. Par conséquent, la surface de sillicium exposée à la lumière est plus importante et donc le rendement est meilleur (un photosite capte plus de lumière). Donc si ça change l’efficacité. Mais oui, en gros, cette circuiterie est dans le capteur, influe sur la performance dudit capteur et n’a donc rien à voir avec le processeur.


[quote name='LeoOfZuiko' timestamp='1389033495' post='355429']
Et donc le processeur n'assure pas seulement la qualité d'un JPEG mais aussi le rôle de gendarme si j'ai bien compris : RAW ou bien JPEG de la marque, ou bien encore RAW + JPEG de la marque. On peut donc dire que depuis notre boîtier, on commande ce que le processeur décidera finalement. Est-ce que comme un ordi, le processeur va permettre une rapidité plus importante du traitement des informations ? Quand la mémoire vive n'était plus assez importante pour laisser passer suffisamment d'informations en même temps, je sais qu'après on pouvait se rattrapper si le processeur pouvait assurer une vitesse suffisante en tant de MégaHertz.
[/quote]
Oui c’est ça, le processeur fait de nos appareils un petit ordinateur portable.
Mais le processeur n’intervient pas sur le contenu du RAW, il ne fait que lui ajouter la date, les metadonnées et l’enregistre sur la carte mémoire. En JPEG en revanche, il y a tout un tas d’algortihmes qui vont optimiser l’image automatiquement.
Chose que font également les dématriceurs sur nos bons vieux ordis, souvent avec de meilleurs résultats car la puissance est plus grande et qu’on peut en plus corriger plus de choses (les interfaces des appareils photos étant… moyennes disons).

Voilà, j’espère que c’est un peu plus clair et que j’ai pas dit de bêtises!
  • LeoOfZuiko aime ceci

Bonjour invité ! Quel que soit la marque de votre appareil photo, si votre passion est la photographie, n'hésitez pas a nous rejoindre !

#22 LeoOfZuiko

LeoOfZuiko


  • 301 messages

  • Genre : Homme

  • Votre pays :

  • Région : Rhône Alpes

  • Appareils : E-5, E-420, PEN, EOS

Posté 07 janvier 2014 - 22 : 08

Bonsoir.

J'espère ne pas trop décevoir puisque je fais un post uniquement pour remercier. :super: J'avais commencé à répondre point par point (j'ai un brouillon) mais c'est vrai que ça demande pas mal de concentration mutuelle. En tout cas, c'est enrichissant.

Cordialement.

#23 Komm

Komm


  • 5 163 messages

  • Genre : Homme

  • Votre pays :

  • Région : Île de France

  • Appareils : Panasonic GM5

Posté 08 janvier 2014 - 10 : 00

Pas de problème, n'hésite pas si tu as d'autres questions!