Fonctionnalités de l’appareil photo Google Pixel 6 : à quoi devez-vous vous attendre ?


appareil photo google pixel 6 pro

Google nous a tous surpris cette semaine en révélant quelques Série Pixel 6 détails, allant de son nouveau Tensor SoC à la conception et plus encore. Mais l’une des informations les plus importantes est que les nouveaux téléphones offrent enfin des mises à niveau majeures de l’appareil photo.

Le Pixel 6 Pro, en particulier, obtient enfin une triple caméra arrière pour la première fois dans l’histoire de la série Pixel, bien que, à la manière typique de Google, quelques années plus tard que les marques Android rivales. Cela signifie que nous avons un appareil photo standard, un tireur ultra-large et un téléobjectif sur le même téléphone, contrairement aux précédents téléphones phares de Google qui vous faisaient choisir entre un appareil photo ultra-large et un téléobjectif.

Il existe cependant plus de mises à niveau qu’un simple système à trois caméras, et celles-ci pourraient permettre des ajouts et des améliorations vraiment astucieux à l’expérience de la caméra Google Pixel. Voici ce que nous attendons des caméras Pixel 6 et Pixel 6 Pro.

En rapport: Les meilleurs téléphones avec appareil photo que vous pouvez obtenir

Le capteur principal obtient enfin une mise à niveau

Module caméra double caméra Pixel 4

La mise à niveau photographique la plus notable est peut-être que la série Pixel 6 recevra un tout nouveau capteur d’appareil photo principal. Il s’agit d’un accord majeur car Google utilise le même capteur IMX363 12MP depuis les jours Pixel 3, le capteur IMX362 du Pixel 2 étant également très similaire.

Un nouveau capteur plus grand pourrait potentiellement apporter plusieurs améliorations par rapport à l’ancien capteur IMX363, telles qu’une plage dynamique améliorée et de meilleurs détails. Ce dernier en particulier était une plainte dans notre Examen du Pixel 5, comme nous l’avons dit, les images de scènes riches en détails, “ont l’air chargées et trop contrastées”.

Google dit que le nouveau capteur de l’appareil photo captera 150% de lumière en plus que l’ancien capteur (via Le bord), ce qui signifie que nous devrions nous attendre à des photos améliorées la nuit. L’application de l’appareil photo Pixel n’a peut-être pas besoin d’activer le mode Night Sight aussi souvent que ses prédécesseurs, car les capacités accrues de collecte de la lumière et le traitement plus rapide devraient fournir des photos plus lumineuses en mode photo standard.

Nous avons déjà vu Google proposer également un mode Portrait de nuit sur le Pixel 5, donc une meilleure capture de la lumière pourrait entraîner plus de portraits en basse lumière sans utiliser les portraits de vision nocturne ou de vision nocturne dans des situations qui seraient trop sombres pour le Pixel 5.

Un nouveau capteur de caméra principal signifie que Google n’aura peut-être pas à s’appuyer très souvent sur Night Sight, par exemple.

Nous nous attendrions également à de meilleurs résultats pour les images d’astrophotographie et les time-lapses astro. En espérant que nous n’ayons pas besoin d’attendre 15 secondes pour obtenir une seule image d’astrophotographie et quatre minutes pour la prise de vue complète. Les capacités améliorées de capture de la lumière ouvrent également la porte à davantage de fonctionnalités à très faible luminosité, telles que l’enregistrement vidéo en faible luminosité et les time-lapses nocturnes.

Il n’y a pas encore de mot sur le capteur de caméra spécifique, mais des capteurs comme le 50MP Samsung Isocell GN2 offrent également la technologie de mise au point automatique Dual Pixel Pro et la prise en charge de plus d’options de qualité vidéo (par exemple, 4K à 120 ips et enregistrement 8K). Google a généralement été en retard pour les options vidéo haute résolution par rapport à ses concurrents, mais nous nous attendons certainement à une amélioration de la technologie de mise au point automatique s’il adopte un module comme celui-ci.

L’amélioration de la mise au point automatique (et de l’exposition) serait également conforme à la philosophie épousée par l’ingénieur caméra de Google Isaac Reynolds à l’époque du lancement de la série Pixel 4. C’est-à-dire que les utilisateurs devraient pouvoir simplement ouvrir l’application Appareil photo et obtenir la bonne photo sans appuyer sur le viseur.

Un excellent zoom logiciel rencontre un excellent matériel

La fonction Super Res Zoom sur le Google Pixel 3.

Le Pixel 6 Pro reçoit également un téléobjectif 4x – une mise à niveau majeure du Pixel 4 téléobjectif 2x de la série. Il n’y a pas de mot sur d’autres détails concernant la caméra 4x, mais cela nous enthousiasme toujours pour le zoom sur les nouveaux Pixels.

La combinaison du Super Res Zoom et d’un téléobjectif 4x signifie que nous pouvons donc nous attendre à ce que le Pixel 6 Pro offre également de superbes images au-delà du zoom 4x. Tous les téléphones ont un seuil où le zoom va de bon à mauvais, mais le seuil du Pixel 6 Pro devrait être nettement plus élevé que celui du Pixel 5 et du Pixel 4 en raison du zoom natif plus élevé.

Un défi potentiel que nous avons vu avec les téléphones équipés d’un téléobjectif 4x ou 5x (en plus d’un appareil photo principal) est que le zoom à courte portée a tendance à en souffrir. Nous avons vu des entreprises comme Huawei, Oppo et d’autres s’appuyer sur la technologie de fusion d’images pour lutter contre cela, en combinant les résultats des appareils photo principaux et téléobjectifs pour fournir des prises de vue 2x à 3x solides.

Nous supposons que Google pourrait faire de même pour les prises de vue inférieures à 4x, en combinant l’appareil photo principal, le téléobjectif et le zoom Super Res. Nous avons vu certains téléphones souffrir de détails réduits sur les bords lors de l’utilisation de techniques de fusion d’images comme celle-ci, ce qui pourrait également être quelque chose que Google doit surveiller.

La promesse renouvelée du silicium pour l’apprentissage automatique

processeur tenseur google

La série Pixel 6 sera également les premiers téléphones Google entièrement alimentés par un chipset interne, surnommé le processeur Tensor. Nous nous attendons à ce que Google utilise la technologie Arm CPU et GPU, mais la grande nouvelle ici est que le chipset dispose d’un TPU (unité de traitement de tenseur). Il s’agit d’un processeur d’apprentissage automatique qui promet d’activer une multitude de fonctionnalités mobiles qui nécessitent généralement une connexion Internet.

Ce n’est pas la première fois que nous voyons du silicium Google dédié dans un téléphone Pixel, car il utilisait auparavant le Pixel Visual Core et le Pixel Neural Core. Ces puces ont tout fait, de l’accélération du traitement HDR + et de l’inférence vocale à l’activation du déverrouillage du visage 3D. Mais le TPU promet une mise à niveau encore plus importante, offrant plus de puissance tout en faisant plus partie intégrante du chipset global que les puces précédentes de Google.

Voir également: Pourquoi la puce Tensor du Pixel 6 est en fait un gros problème (et pourquoi ce n’est pas le cas)

Google utilise également le TPU pour améliorer les capacités de l’appareil photo, l’entreprise présentant plusieurs démos pour Le bord. Une de ces démos a vu une photo floue d’un enfant en bas âge, avec Google exécutant cette image à travers le TPU pour rendre le visage de l’enfant flou. Le fabricant de pixels dit qu’en plus du traitement multi-images existant avec l’appareil photo principal, il est capable d’utiliser l’appareil photo ultra-large dans le cadre du processus, ce qui entraîne un visage flou.

Une autre démo présentée par Google pour le TPU est l’enregistrement vidéo HDR amélioré. Cette démo a opposé le Pixel 6 au Pixel 5 et iPhone 12 Pro Max, tournage d’une vidéo HDR d’une plage (en 4K/30fps). Le bord a noté que le Pixel 6 est arrivé en tête car il n’éclaircit pas artificiellement les ombres par rapport à l’appareil d’Apple, tout en ayant l’air plus naturel que les deux.

Google a déclaré au point de vente qu’il utilisait le même processus HDR pour la vidéo HDR que celui utilisé pour ses images fixes. Nous ne pouvons pas nous empêcher de penser que cela ouvre la porte à un mode rafale amélioré, qui manquait aux appareils Pixel depuis un certain temps maintenant.

Google a présenté des fonctionnalités telles que la suppression du flou des visages et une vidéo HDR améliorée, mais un apprentissage automatique plus puissant pourrait apporter beaucoup plus de fonctionnalités.

Une autre possibilité soulevée avec le silicium AI plus rapide est que nous pourrions enfin voir la technologie de suppression d’objets telle que présentée par Google de retour en 2017. À l’époque, il montrait une image prise derrière une clôture à mailles losangées, avec l’apprentissage automatique utilisé pour supprimer la clôture afin de fournir une prise de vue nette. Nous n’avons pas vu cette technologie depuis lors, mais le TPU pourrait théoriquement l’activer ainsi que des fonctionnalités telles que l’effacement d’objets en général (comme sur les téléphones Samsung) et la suppression des reflets (comme sur les appareils Huawei).

Google a également déjà utilisé du matériel d’apprentissage automatique pour activer des fonctionnalités axées sur les passionnés telles que Contrôles d’exposition double. Cette fonctionnalité astucieuse a fait ses débuts sur la gamme Pixel 4 et a permis aux utilisateurs d’ajuster les niveaux d’ombre avant de prendre une photo. Espérons donc que le TPU offre des fonctionnalités plus pratiques dans le viseur, donnant aux utilisateurs une raison de moins de visiter une application d’édition.

L’ancien googleur Marc Levoy admis en 2019 que la société n’avait pas encore résolu le défi de capturer à la fois une lune détaillée et un paysage éclairé par la lune en une seule prise. L’ancien chef de la caméra a attribué la difficulté à surmonter cet obstacle au fait que la plage dynamique entre la lune brillante et le paysage sombre était trop grande, tout en exhortant les gens à “rester à l’écoute” des développements. Il va de soi que Google a abandonné ce travail ou a simplement attendu un meilleur matériel de caméra et un silicium d’apprentissage automatique. Et devinez ce que nous avons avec la série Pixel 6 ?


Il y a encore beaucoup d’inconnues autour de l’appareil photo Pixel 6, mais il y a de quoi être enthousiasmé. Êtes-vous impressionné par le matériel de l’appareil photo Pixel 6 Pro jusqu’à présent ? Faites-le nous savoir via le sondage ci-dessus et dans les commentaires.



Source link