Le Google Pixel 7 lance « Sharpen Photos », une nouvelle fonctionnalité de Google Photos qui peut corriger les photos floues ou décolorées en utilisant la puissance de l’IA.
La nouvelle génération de smartphones de la famille Pixel, composée du Pixel 7 et du Pixel 7 Pro, jette à nouveau son dévolu sur la photographie avec un système de caméra remanié présent dans les deux modèles, ce qui apporte une bonne poignée de nouvelles fonctionnalités visant à améliorer l’expérience photographique en combinant le nouveau matériel avec les progrès de IA et la photographie informatique.
L’une des nouveautés les plus intéressantes de cette nouvelle série est la mode appelé « Affûter les photos ». c’est une nouvelle fonctionnalité intégré à l’application Google Photos permettant « corriger » les images floues ou tremblantesy compris les plus anciens, ceux qui sont enregistrés dans votre galerie depuis des années mais que vous refusez de supprimer.
Mais, comment fonctionne réellement ce mode ? Google a déjà introduit l’année dernière la fonction de mise au point sur le visage sur le Pixel 6 et le Pixel 6 Pro pour améliorer la netteté des visages lors de la prise de vue, en combinant simultanément les informations capturées par l’appareil photo ultra grand angle et l’appareil photo principal. Cette année, l’entreprise va plus loin, en utilisant la puissance de l’intelligence artificielle pour redonner vie à des photos qui auraient autrement fini à la poubelle.
Voici comment Google utilise la puissance de l’IA pour réparer vos photos
Avec cette nouvelle génération de pixelsGoogle n’a pas seulement amélioré la technologie de flou intégré à la caméra, donc maintenant il agit jusqu’à trois fois plus souvent et est capable d’ajouter de la netteté même aux visages qui ne sont pas mis au point dans la scène. La société a également donné à l’utilisateur le pouvoir de récupérer des images floues enregistré dans votre bibliothèque Google Photos avec « Sharpen Photos ».
Isaac Reynolds, chef de produit de la section caméras chez Google Pixel, explique dans le premier épisode du nouveau podcast « Made by Google », que lors du développement de cette fonction, ils se sont inspirés du les modèles d’intelligence artificielle si à la mode aujourd’huiqui permettent de générer des images à travers du texte.
Il indique que, dans les modèles de apprentissage automatique appliqué à la photographie, il existe une catégorie appelée réseaux génératifs. Ces modèles sont capables de « générer » un contenu qui n’existait pas auparavant, soit par une consigne donnée par l’utilisateur, soit par une analyse du contexte. A partir de là, ce qui est appris par le modèle entre en jeu, et il est capable de « compléter » ou améliorer l’écart manquant.
Dans le cas de la nouvelle fonction du Pixel, le modèle détermine à quoi devrait ressembler un visage humain, à la fois avant et après l’application de l’effet « flou » dessus. Donc, calculez le niveau de flou qui existe sur l’image, et génère un résultat qui « devine » les détails du visage de l’utilisateur, prenant en compte des milliers d’échantillons préalablement analysés.
Reynolds explique que, bien qu’il soit basé sur un modèle formé avec des milliers de photographies, la fonction ne modifie jamais les traits du visage du sujet et génère une représentation très authentique de leurs caractéristiques.
Il est à noter que « Affûter les photos » Il n’est pas seulement capable d’éliminer les mouvements sur les visages. peut aussi corrigez les mains floues, les sujets légèrement flous ou les distorsions de lumière.
La fonctionnalité sera disponible via Google Photos sur le Pixel 7 et le Pixel 7 Pro initialement, et il n’est pas clair si la société décidera d’apporter cette fonctionnalité aux modèles précédents de la famille Pixel au fil du temps.
45secondes est un nouveau média, n’hésitez pas à partager notre article sur les réseaux sociaux afin de nous donner un solide coup de pouce. ?