Nous connaissons de nouveaux détails sur l’appareil photo de l’iPhone 15 racontés par son responsable chez Apple
Jon McCormackresponsable du logiciel de caméra iPhone chez Apple, a accordé un entretien avec PetaPixel, un site spécialisé dans la photographie. Dans cette interview, il a répondu à une série de questions intéressantes qui mettent en lumière tout ce que fait le système de caméra de l’iPhone à chaque fois que vous appuyez sur le déclencheur et prenez une photo sur le nouvel iPhone 15 ou 15 Pro. La plupart des utilisateurs ne le savent pas, mais lorsque vous appuyez sur ce bouton, une multitude de photos sont prises en même temps, dans des zones différentes, avec des expositions et des sensibilités différentes, et un système de traitement d’image très complexe choisit les meilleurs clichés, les mélange avec d’autres pour exposer des images très claires ou très sombres. parties uniformément (HDR), puis appliquez différents filtres de netteté, de contraste et de couleur, pour enfin vous donner l’image que vous voyez presque un instant plus tard sur l’écran de votre iPhone.
Tout ce processus vise à obtenir des images de haute qualité avec un iPhone, et ils y parviennent, et même si parfois pour certains utilisateurs ce n’est pas le résultat attendu, en général c’est le cas pour la majorité. C’est ce qu’on appelle désormais photographie informatique ces dernières années, avec les smartphones au premier plan car ce sont les appareils photo que nous portons tous avec nous toute la journée.
Apple recherche l’équilibre entre offrir les fonctionnalités les plus avancées possibles, avec des réglages complexes, dans un appareil photo que n’importe qui peut utiliser avec peu ou pas de connaissances en photographie. L’iPhone doit être un « viser et photographier », c’est-à-dire un appareil photo qui permet de viser et de prendre la photo sans plus tarder, et qui donne de bons résultats. En même temps, l’iPhone devrait être (et c’est surtout le cas dans les modèles Pro) un appareil photo à partir duquel un photographe expérimenté peut obtenir beaucoup de performances, en pouvant modifier pratiquement tous les paramètres d’exposition et travailler au format RAW pour avoir plus tard flexibilité lors de l’édition de photos sur un ordinateur ou sur l’iPhone lui-même. C’est ce dont McCormack parle davantage dans cette interview, en trouvant un équilibre entre les deux manières d’utiliser l’appareil photo de l’iPhone.
Au cours de l’entretien, nous avons appris quelques détails importants, comme le fait que la fonctionnalité qui permet d’enregistrer des vidéos en externe sur une unité de stockage via USB-C ne fonctionne qu’avec des vidéos enregistrées en résolution 4K, 60 images par seconde et qui utilisent le codec ProRes. La vérité est que nous ne voyons aucune raison de ne pas autoriser, par exemple, l’enregistrement à 30 ou 24 images par seconde, ou même d’autoriser l’enregistrement vidéo dans tout autre format, mais McCormack explique qu’il s’agit d’une fonctionnalité conçue pour un usage professionnel de l’appareil photo de l’iPhone. et donc seuls les codecs professionnels sont pris en charge, comme le ProRes, sans perte de qualité due à la compression. Ce n’est pas la réponse à laquelle nous nous attendions, mais nous savons déjà à quoi ressemble Apple.
Espérons qu’une application de caméra tierce puisse résoudre ces limitations et permettre l’enregistrement vidéo externe dans n’importe quel format et résolution, même si nous ne savons pas si Apple offre cette possibilité à des tiers ou s’il se la réserve, du moins pour le moment.
Pourquoi des photos à 24 mégapixels au lieu de 12 ou 48 ?
Le nouveau capteur de 48 mégapixels, au format RAW, peut être utilisé à sa résolution maximale dans des conditions d’éclairage suffisantes, comme sur l’iPhone 14 Pro, mais pas pour des photos normales et ordinaires, dont nous prenons des dizaines chaque jour. Ceux-ci restent à 12 mégapixels. Dans le cas des iPhone 15 et 15 Pro, il est possible d’augmenter la résolution à 24 mégapixels pour les photos du quotidien qui n’utilisent pas le format RAW grâce à un équilibre entre les capacités du capteur. Selon McCormack, 24 mégapixels atteignent la plage dynamique des résolutions de 12 mégapixels et la haute résolution d’un capteur de 48 mégapixels. Moins la résolution est utilisée, plus il y a de bande passante afin que le capteur puisse envoyer des informations provenant de plusieurs expositions au moment de la prise de photo, offrant ainsi plus de plage dynamique en étant capable d’équilibrer les zones très lumineuses (généralement le ciel) avec d’autres zones très sombres. ceux (généralement sous l’horizon). 24 mégapixels permettent d’obtenir suffisamment d’expositions pour appliquer ces effets sans avoir à descendre aux 12 mégapixels qui étaient auparavant requis sur l’iPhone 14 Pro. C’est la raison pour laquelle la pleine résolution du capteur n’était autorisée à être utilisée qu’en utilisation Mode RAW, car dans ce mode, tout ce traitement d’image n’est pas appliqué en arrière-plan.
Si vous parlez anglais, nous vous recommandons de lire l’intégralité de l’interview en PétaPixel.