iOS 16 et macOS 13 détourent automatiquement les sujets dans les photos 🆕
La liste de nouveautés présentées hier par Apple est longue, mais celle-ci a le potentiel de devenir le nouveau « Texte en direct ». L’app Photos analyse vos images en quête de leur contenu et avec iOS 16 et macOS 13, elle franchit une étape supplémentaire en permettant d’extraire (presque) n’importe quel élément de (presque) n’importe quelle photo. Touchez l’élément que vous souhaitez extraire, maintenez le doigt une seconde et vous pouvez le glisser/déposer n’importe où ! 🤯
Vous pouvez l’utiliser sur vos animaux préférés, évidemment, sur des personnes, mais aussi des objets variés. J’ai testé avec des voitures, des trains, des monuments et même un (excellent) crumble, cela fonctionne remarquablement bien ! Voici quelques exemples, avec à chaque fois la photo originale et ce qui a été extrait par le système.




Le détourage n’est jamais parfait, surtout si vous agrandissez l’image extraite automatiquement, mais cela fait illusion et convient bien pour une conversation dans l’app Messages ou un photomontage rapide. L’image extraite est un PNG sur fond transparent et Apple réduit automatiquement sa taille par rapport au fichier original, peut-être pour éviter que les défauts de détourage ne soient trop visibles.

Sur iOS 16 comme sur iPadOS 16, tout se fait par un glisser-déposer après un tap prolongé, avec une petite gymnastique à apprendre pour distinguer la photo complète de l’objet que l’on veut extraire. Il y a manifestement encore quelques bugs dans la première bêta, ce qui est bien normal, et Apple a le temps d’améliorer tout ça.
Sous macOS 13, la méthode est différente : il faut effectuer un clic secondaire sur une image et si l’app a détecté un élément à détourer, vous y verrez une ligne « Copier le sujet ». Le PNG détouré sera alors ajouté au presse-papiers et vous pouvez le coller n’importe où, dans Messages, Notes, ou autre.


Mise à jour le 07/06/2022 16:17 : le glisser-déposer n’est pas la seule option pour extraire un sujet sur iOS. Il est aussi possible de toucher le sujet, de patienter une seconde ou deux et le système affiche alors un pop-up qui permet de copier l’image extraite ou de la partager directement. En outre, un trait animé montre ce qui sera extrait, ce qui est assez utile pour savoir si la fonction a vu juste sur la sélection ou pas.

Autre point important que j’avais oublié de préciser ce matin, il faut un appareil iOS équipé d’une puce Apple A12 au minimum pour bénéficier de cette nouvelle fonction.
Mmm les beaux memes hideux qu’on va voir débarquer 😅
@iJoke
J’allais faire exactement le même commentaire 😂
Je trouve ça top ! Plus besoin de passer par une application tierce ! Merci Apple !
Ah c'est cool ça transforme même les tour Eiffel en chien
@apaisant
Quand je dis que c'est impressionnant, je ne rigole pas !
@nicolasf
Oui en effet mais je connais un site qui fait ça beaucoup mieux.
@MickaelBazoge
😻
Ça pourrait ouvrir la retouche photo localisée sur le sujet ou sur le ciel par exemple.
@s1n3d
Effectivement c’est ce que je me disais aussi
Cela me paraît indispensable pour faire de petits masquages locaux (déboucher un visage sous exposé par exemple) dans Photos
Est ce que ça fonctionne avec les anciens iPhone (iPhone X par exemple) ?
@Heihachi
Il faut une puce A12...
@Link1993
Ah mince…..
Vraiment peu de nouveautés pour l’iPhone X finalement…. 😔
@Heihachi
On va dire que c'est un maintien dans l'écosystème ! :)
Là où je suis plus triste, c'est de ne pas retrouver toutes fonctions multitâche sur l'iPad mini :/
Je sais qu'il est petit, mais c'est mon iPad principal sur lequel je fais tout, et c'est un mini parce que j'ai un besoin de cet taille occasionnellement (dans un cockpit d'avion). Donc voilà... :(
@Link1993
Oui je comprend
Peut être que le prochain iPad mini sera avec une puce M1 (ou M2) 😁
@Link1993
Hahaha
L’IA débile ca fait vendre
Le crumble litière 😆
@lolo81
Ah purée, j'avais même pas pensé à ça… 😬
@nicolasf
En tout cas il fait bien la distinction entre bac à litière et litière. Il aurait pu ne prendre que le crumble ou un mix moule/crumble.
Pareil sur les ombres. Globalement il les enlève bien sauf un reste sur une roue de la catmobile.
@lolo81
😂😂😂
@lolo81
J’ai pensé la même chose 🤣
Sinon il y a HyperPhoto ;-)
https://apps.apple.com/fr/app/hyperphoto-editeur/id1604172201
@pocpoc
Pourquoi utiliser une app tierce si iOS le fait aussi bien? Ou alors c’est de l’auto-promo?
Bonjour, Je suis le développeur d'HyperPhoto, ce n'est pas de l'auto-promo, vu que ce n'est pas mon compte ;)
Mais je remercie @popoc :D
Concernant le détourage, pour l'instant pour avoir testé la fonctionnalité d'iOS 16, HyperPhoto le fait un peu mieux (je m'efforce à convertir des modèles de l'état de l'art de la recherche en CoreML, aucune données n'est transmise sur le cloud)
D'ailleurs d'après mes test le détourage ne gère pas l'opacité. Les pixels sont soit opaques soit transparents. Ca ne fait pas d'alpha matting
@pboudoin
D’accord, merci pour la précision!
Dommage qu’on ne puisse pas glisser-déposer sur macOS… Mais bon ça semble être la nouvelle philosophie d’Apple: là où macOS était il y a quelques années précurseur des gestes multitouch, des animations subtiles et soignées et des éléments visuels, on se retrouve maintenant avec des fonctions implémentées derrière des menus contextuels, des pavés de texte (le panneau Trackpad des Réglages système a perdu toutes ses vidéos explicatives… remplacées par du texte), là où dans le même temps Microsoft s’améliore franchement!
@ mat16963
> Dommage qu’on ne puisse pas glisser-déposer sur macOS
Trop d'ex développeurs de Microsoft chez Apple ?
On peut récupérer un élément d'une photo, mais peut-on aussi le supprimer ? Comme ce que proposent des apps comme pixelmator sur iOS ou Google sur android.
Merci !
@shaba
Non, pas à ma connaissance du moins, la fonction est a priori limitée à ce que je présente ici.
@nicolasf
D’accord, c’est une première étape je suppose. Merci !
C'est énorme !
Ca doit pas être la fête chez Scan Thing https://scanthing.app/
@innocente
Non les Tesla sont des voitures animalistes (cuir vegan des fauteuils) et choisiront toujours, TOUJOURS de tuer des humains plutôt que des chats.
Sur iOS 16, j’arrive à sélectionner ce que je veux extraire mais je n’arrive pas à l intégrer à autre chose comme un emails
Il y a une manip ?
Je suis fan !
La gestion famille des photos est-elle déjà dispo dans la bêta ?
En attendant, sur iOS 15 ou iPadOS 15, le détourage est-il possible ? Dans Photos ? Un logiciel spécialisé et lequel ? Merci !
Sur mon app, HyperPhoto https://apps.apple.com/fr/app/hyperphoto-editeur/id1604172201
est-ce qu’on peut en faire des stickers à coller aux imessages ?
Dans la prochaine mise à jour c'est prévue. Elle sortira dans la semaine. Le truc drôle c'est que je venais de faire marcher cette fonctionnalité juste avant la WWDC :D
Edit... Ca a fini par fonctionner...
C'est génial. Je n'ai juste pas encore trouvé comment extraire d'une live photo. Un appui long lance la "vidéo", et donc ne détoure pas. Ou bien je m'y prends mal ?
Génial !!! Il reste à faire de Aperçu une app i(Pad)OS pour vraiment/mieux travailler des images et pdf puis le muscler pour faire du montage au moins aussi bien que sur Pages/Keynote+annoter… et on a un super outil de base assez puissant pour l’essentiel, avant de devoir aller à Photoshop / Publisher pour plus puissant, mais seulement quand on en a vraiment besoin !
Superbe. Du coup, le png represente - reduit en taille d’ailleurs par rapport a l’original - qu’une infime partie du poids original de l’image, correct?
@Paquito06
Correct.
@nicolasf
Merci ☺️
Du coup ça fonctionne même sur une photo qui n’est pas prise en mode « portrait »? 🙂
@cecile_aelita
Bien sûr, je n’ai d’ailleurs aucun exemple en mode portrait dans cet article.
@nicolasf
C’est cool ça 🙂.
Par contre les effets de profondeur : l’heure qui est derrière la tête des gens sur les fonds d’écran. Ça on est d’accord qu’il faut une photo en mode portrait ? 🙂
Pages