Chaque année, Apple vante les mérites iPhone comme ayant un système de caméra incroyable – et, oui, le matériel est certainement impressionnant. Les iPhone 14 Pro possède les dernières avancées proposées par Apple en termes de mises à niveau de l’appareil photo, y compris un énorme saut vers un appareil photo principal de 48 MP avec technologie de regroupement de pixels (quatre sous-pixels pour constituer un pixel plus grand), un téléobjectif avec zoom optique 3x, nuit plus rapide mode, et plus encore. Encore une fois, sur le plan matériel, la caméra de l’iPhone 14 Pro est impressionnante. Et c’est!
Mais à quoi sert un excellent matériel photo lorsque le logiciel continue de ruiner les images que vous prenez ? Depuis le iPhone 13 gamme, il semble que toutes les images prises à partir d’un iPhone, à moins qu’elles ne soient prises au format ProRaw, ont l’air mauvaises par rapport à celles prises sur les anciens iPhones et les concurrents meilleurs téléphones Android. C’est parce qu’Apple a tourné le cadran chemin sur la photographie informatique et le post-traitement chaque fois que vous capturez une photo. Cela ruine mes images, et Apple doit prendre une pilule de refroidissement et la réduire d’un cran.
Ces fonctionnalités “intelligentes” ne sont pas aussi intelligentes qu’elles le prétendent
Pour prendre des photos, nous avons besoin de capteurs qui aident à capturer la lumière et les détails pour créer ces images. Cependant, comme les smartphones sont beaucoup plus compacts qu’un DSLRles capteurs sont assez limités dans ce qu’ils peuvent faire. C’est pourquoi Apple, ainsi que d’autres fabricants de smartphones, peuvent s’appuyer sur des logiciels pour améliorer la qualité d’image des photos que vous capturez sur un téléphone.
Apple a introduit Smart HDR sur l’iPhone en 2018, et cette fonctionnalité logicielle en est maintenant à sa quatrième itération avec le iPhone 14 s’aligner. Avec Smart HDR 4, l’appareil prendra plusieurs photos avec différents paramètres, puis combinera les “meilleurs” éléments de chaque image en une seule photo. Il y a beaucoup de photographie informatique en cours avec ce processus, et bien que l’intention soit de rendre les images belles, cela fait en fait le contraire.
Vous l’avez peut-être remarqué lorsque vous prenez une photo sur votre iPhone 14 (ou iPhone 13) et que vous appuyez immédiatement sur la vignette dans le coin pour afficher les images que vous venez de prendre. L’image ressemblera à ce que vous avez capturé pendant une seconde rapide, mais elle semblera alors trop nette – avec des couleurs apparaissant plus artificielles, peut-être délavées dans certaines zones et trop saturées dans d’autres. Même le teint de la peau peut sembler un peu différent de ce que vous voyez dans la vraie vie. Alors que j’aimais le mode nuit quand il a fait ses débuts sur le iPhone 11 série, par rapport à la concurrence actuelle, le mode nuit rend les photos trop «lumineuses» à cause du surtraitement, et beaucoup de photos de nuit ne semblent même pas avoir été prises la nuit.
Et avez-vous déjà essayé de prendre un selfie dans des conditions de faible luminosité ? Bien sûr, l’iPhone dispose également d’un mode nuit pour la caméra frontale, mais je ne l’ai pas trouvé très utile. Les selfies en basse lumière ont l’air horribles, peu importe ce que vous faites, car iOS ajoute de nombreux artefacts numériques à l’image pour essayer de la “sauvegarder”. Mais au lieu d’enregistrer la photo, elle finit par ressembler à une aquarelle mauvaise et désordonnée. En fait, j’essaie de ne pas prendre de selfies sur mon iPhone 14 Pro lorsque je suis dans un environnement sombre car ils finissent presque toujours par avoir l’air mauvais.
Je ne sais pas quand les photos prises avec un iPhone ont commencé à ressembler à cela, mais j’ai vraiment l’impression que cela est devenu plus important à partir de la série iPhone 13. Je peux me tromper, mais je ne me souviens pas particulièrement de mon iPhone 12 Pro des images semblant exagérées, et surtout pas mes photos iPhone 11 Pro. L’iPhone avait l’habitude de prendre des photos qui semblaient réalistes et naturelles, mais tout ce post-traitement intelligent HDR et de photographie informatique est devenu incontrôlable, rendant les images pires qu’elles ne devraient l’être.
Apple, éteignons ce truc

Il y a quelques années, il était possible de ne pas utiliser du tout le Smart HDR. Il s’agissait d’un paramètre facultatif que vous pouviez activer ou désactiver à votre guise. Ce paramètre n’était disponible que sur les séries iPhone XS, iPhone XR, iPhone 11, iPhone SE 2et les modèles d’iPhone 12. Depuis l’iPhone 13 et les versions ultérieures, l’option d’activation du Smart HDR a été supprimée.
Supprimer cette option était une décision à courte vue, et j’espère qu’Apple la ramènera à un moment donné. Bien que mon iPhone 14 Pro soit mon appareil personnel et principal, en particulier pour la photographie, j’ai parfois besoin de modifier une image avant de la considérer comme pouvant être partagée avec d’autres. Je comprends ce qu’Apple essaie de faire avec Smart HDR, mais l’image résultante semble généralement bien trop artificielle par rapport à ce que vous voyez en réalité.
Par exemple, lorsque je prends des photos à l’extérieur dans des conditions ensoleillées, la photo peut avoir un ciel bleu trop saturé, ce qui la rend fausse. Je pense aussi que, parfois, la modification de la couleur rend mon teint un peu différent – quelque chose qui YouTuber Marques Brownlee (MKBHD) en parle même dans une vidéo récente.
La concurrence Android fait mieux

Encore une fois, Apple a mis du bon matériel photo dans la gamme iPhone 14 Pro, mais il est entaché par le surtraitement du logiciel. Comme j’ai acheté quelques appareils Android différents au cours de mon séjour chez Digital Trends, j’en suis venu à apprécier la façon dont certains téléphones Android concurrents gèrent la photographie sur l’iPhone.
Par exemple, le GooglePixel 7 prend de superbes photos avec l’appareil photo principal sans effort supplémentaire. Il vous suffit de viser et de déclencher, et les résultats sont fidèles à ce que vos yeux voient, voire meilleurs. Google utilise toujours une grande partie de son propre traitement d’image, mais il ne rend pas les photos non naturelles comme le fait Apple. Le seul problème, d’après ce que j’ai remarqué, ce sont les selfies. Il n’obtient pas tout à fait le teint de la peau avec précision, mais sinon, l’appareil photo principal est génial. Les couleurs sont équilibrées, non délavées, et le logiciel n’essaie pas trop de le rendre “beau”, car il l’est déjà. Et avec des outils amusants comme Gomme magiqueJe préfère utiliser mon Google Pixel 7 pour retoucher les photos.
J’ai aussi testé l’ancien Galaxy S21 pour quelques-unes de ces comparaisons de photos, et même si je ne pense pas qu’il gère si bien le teint et la couleur de la peau, il semble bien fonctionner pour les selfies à faible luminosité, ce qui m’étonne. Il a également très bien géré les images en mode nuit, les rendant naturelles et réalistes au lieu d’être soufflées avec les couleurs comme l’iPhone 14 Pro.
Alors qu’Apple peut dire qu’il a le “meilleur” matériel photo, iOS et le recours excessif à la photographie informatique ruine l’apparence des images. Bien sûr, certaines personnes peuvent aimer cette esthétique, mais personnellement, je ne supporte pas à quel point beaucoup de mes photos finissent par paraître non naturelles. Apple doit atténuer les éléments Smart HDR, ou au moins ramener l’option de le désactiver s’il nous plaît. Parce qu’en ce moment, les choses ne vont pas très bien.
Recommandations des éditeurs