Texte en direct : comment Apple a libéré le texte des images

Florian Innocente |

Apparue avec iOS 15 puis perfectionnée avec iOS 16, la fonction Texte en direct est l'un des points forts des derniers systèmes d'Apple. C'est un projet dont les antécédents remontent à loin et qui a mobilisé de nombreuses équipes chez Apple, ainsi que l'ont raconté une poignée de ses responsables dans un article diffusé en interne après la première présentation de « Live Text ».

Texte en direct a épaté lors de sa sortie l'année dernière, car il se révélait à la fois performant dans la détection et la reconnaissance de textes dans des photos et parfaitement intégré au système et ses apps.

Aperçu de la fonction Texte en direct d’iOS 15

Ryan Dixon, dont l'équipe a conçu les technologies utilisées pour la reconnaissance de texte et de l'écriture, rappelait alors que Texte en direct était l'aboutissement de plusieurs développements plus isolés, réalisés au fil du temps.

Du point de vue de la technologie sous-jacente, ça a pris plusieurs années. Il y a un long historique de fonctionnalités qui ont ouvert la voie à Live Text, comme la lecture des codes des cartes-cadeaux iTunes avec l'appareil photo, l'enregistrement d'une carte bancaire et les fonctions de reconnaissance de l'écriture manuscrite, comme Griffonner.

Seuls les abonnés du Club iGen peuvent lire l‘article dans son intégralité.

-> Déjà membre ? Je me connecte
-> S‘abonner au Club iGen
Accédez aux commentaires de l'article