Ouvrir le menu principal

iGeneration

Recherche

Actualités

Apple Intelligence : de nouveaux outils pour l’édition photo dans iOS 27

Christophe Laporte

mercredi 29 avril à 06:20

iOS

Alors que nous sommes à un peu plus d’un mois de la WWDC, les rumeurs devraient commencer à se faire plus nombreuses concernant les nouveaux logiciels système d’Apple. L’un des axes de développement pour la firme de Cupertino serait l’ajout de nouveaux outils d’édition photo basés sur l’intelligence artificielle, si l’on en croit Mark Gurman. Ces nouveautés feraient leur apparition au sein d'iOS 27, iPadOS 27 et macOS 27.

Dans ces futurs logiciels, l'entreprise ajouterait une nouvelle section « Apple Intelligence Tools » à l'interface d'édition. Elle comprendrait les fonctions Extend (Extension), Enhance (Amélioration), Reframe (Recadrage) ainsi que l'actuel outil Effacer (Clean Up).

Extension, amélioration et recadrage spatial

L'option Extend permettrait de générer du contenu d'image supplémentaire au-delà du cadre d'origine. Un utilisateur pourrait, par exemple, prendre une photo en gros plan d'un monument et utiliser l'outil pour compléter le paysage environnant. Le degré d'extension et les zones à remplir seraient contrôlables manuellement en étirant les bords de l'image.

De son côté, Enhance s'appuierait sur l'IA pour améliorer automatiquement la colorimétrie, l'éclairage et la qualité générale du cliché. Quant à la fonction Reframe, elle se destinerait prioritairement aux photos spatiales pour le Vision Pro. Elle permettrait de modifier la perspective après la prise de vue : une photo de voiture pourrait ainsi être ajustée pour passer d'une vue de face à une vue de profil.

Des modèles à parfaire

Le développement de ces fonctionnalités ne serait pas sans difficulté. Les outils Extend et Reframe ne se montreraient pas assez fiables lors des tests internes. Selon plusieurs sources, Apple pourrait retarder leur déploiement ou en limiter la portée selon l'évolution de la qualité de ses modèles.

L'entreprise fait déjà face à des critiques concernant son premier outil d'édition par IA. Depuis ses débuts, des utilisateurs regrettent que la fonction Effacer produise des résultats parfois inconstants, laissant des artefacts visuels ou remplissant les zones supprimées avec des détails imprécis.

Rattraper le retard sur la concurrence

Ces nouveautés permettraient d'éditer des images via des modèles d'IA fonctionnant directement sur l'appareil. Le traitement prendrait en général quelques secondes. Sur ce point, Apple tente de rattraper Google, qui propose des capacités similaires sur ses Pixel depuis des années (Gomme magique, Zoom amélioré), ou encore Samsung avec sa gamme Galaxy.

Actuellement, l'application Photos d'Apple propose quatre options d'édition principales : Ajuster, Filtres, Recadrer et Effacer. Cette dernière est pour l'instant l'unique outil de l'entreprise basé sur l'IA générative. Il convient toutefois de rappeler qu'Apple Intelligence, depuis son lancement en octobre 2024, est toujours officiellement considérée comme un service en bêta.

L'application Météo d'Apple n'est plus dans les choux 🆕

Christophe Laporte

mercredi 29 avril à 05:45

Services

Mise à jour 29/04 — Les choses sont rentrées dans l’ordre. La panne aura duré environ 4 heures si l’on en croit la page de statut d’Apple.

Article original — Si les données météorologiques refusent de se charger sur votre iPhone, votre iPad ou votre Apple Watch, le problème ne vient pas de votre connexion. Les serveurs d'Apple rencontrent actuellement des difficultés.

Image : Joe Chau - Unsplash

Inutile de chercher à réinitialiser vos réglages : l'application Météo fait face à une panne de grande ampleur. De nombreux utilisateurs constatent soit des lenteurs extrêmes pour obtenir les prévisions, soit une absence totale de données sur l'interface.

Sur sa page officielle de Suivi du système, Apple a confirmé l'existence d'un incident. Le service est marqué d'un voyant rouge, indiquant qu'il peut être « lent ou indisponible » pour une partie des utilisateurs.

Les rapports se multiplient également sur les réseaux sociaux, décrivant une application qui tourne dans le vide ou qui affiche un écran vierge de toute information.

merci Steeve

Le SpatialAware arrive dans l'écosystème Hue, pour ajuster la lumière par rapport à la position des lampes

Pierre Dandumont

mardi 28 avril à 23:59

Domotique

Peu à peu, Signify (Philips) ajuste son écosystème pour tirer parti du nouveau pont Hue Bridge Pro, sorti l'année dernière. La dernière mise à jour en date de l'app Hue vient d'ajouter une fonction qui avait été montrée au CES 2026 : SpatialAware. Elle permet de prendre en compte la position des ampoules et autres accessoires pour adapter les différentes scènes.

La nouveauté nécessite le pont Hue Bridge Pro, qui vaut 100 €. SpatialAware reprend les mêmes bases techniques que MotionAware, que nous avons testé en même temps que le pont. La puissance supplémentaire des composants intégrés dans le pont permet de déterminer de façon assez fine la position des différents éléments de l'écosystème Hue dans une pièce, et ensuite d'adapter les scènes en fonction de la localisation de ces derniers. Elle repose sur la latence de la connexion Zigbee employée pour les accessoires.

Test du Hue Bridge Pro : des fonctions qui ressemblent à des gadgets et des défauts pour le pont du futur

Test du Hue Bridge Pro : des fonctions qui ressemblent à des gadgets et des défauts pour le pont du futur

Dans les exemples montrés au CES 2025, Signify expliquait que « Pour une scène de coucher de soleil, par exemple, les lampes d’un côté de la pièce afficheront des tons jaunes chauds pour imiter le soleil couchant, tandis que les plafonniers de l’autre côté seront éclairés par des teintes plus sombres. ».

Le court texte de mise à jour indique que la moitié des scènes proposées dans l'app Hue a été adaptée pour SpatialAware, avec la possibilité de choisir entre la version classique, statique, et la version modifiée.

Notons enfin que la marque a aussi ajouté deux fonctions à sa sonnette connectée. La première permet de prendre des appels en vidéo en direct plutôt que de répondre avec une simple notification, la seconde de générer une réponse préenregistrée qui s'affichera sur la sonnette.

Il y a 15 ans, Apple sortait son iPhone 4 blanc avec 10 mois de retard : retour sur un fiasco oublié

Pierre Dandumont

mardi 28 avril à 22:45

iPhone

Ce n'est pas forcément le fiasco le plus connu ni le plus mis en avant, mais il y a 15 ans, Apple sortait (enfin) l'iPhone 4 blanc, avec près de dix mois de retard. Il faut bien l'avouer, le principal problème de cette génération n'est pas l'absence d'une variante blanche, mais bien le fameux Antennagate. Si vous ne vous en souvenez pas, l'iPhone 4 avait un réel problème de réception par rapport à d'autres smartphones de l'époque, et la réponse de Steve Jobs avait été inappropriée : il conseillait de mieux tenir le téléphone. L'autre problème de cette génération, donc, était la version blanche de l'appareil.

L'iPhone 4 blanc. Image iMore.

L'iPhone 4 a été annoncé en juin 2010, en deux couleurs (noir et blanc). Mais dès la fin du mois, Apple a communiqué pour indiquer que le modèle blanc aurait du retard, avec une sortie annoncée pour juillet 2010. Mais un mois plus tard, rebelote : un court communiqué pour indiquer que le modèle blanc était encore repoussé, sans date précise. Il a finalement fallu attendre la fin du mois d'avril 2011 pour que ce modèle blanc débarque, quelques mois à peine avant l'arrivée de l'iPhone 4S.

Test de l

Test de l'iPhone 4 blanc

Un problème de capteurs et de verre

Si les détails exacts ne sont pas connus, Apple a visiblement eu beaucoup de mal avec le premier iPhone Retina. Sur le modèle blanc, les matériaux ont changé entre le modèle montré (mais pas commercialisé) en 2010 et la version finale. Les rares prototypes qu'on a pu voir à l'époque jaunissaient en effet assez facilement, par exemple. Comme notre test le montrait, Apple avait aussi dû modifier légèrement l'appareil photo pour mieux prendre en charge les reflets issus de la coque en verre de l'iPhone, et modifier aussi quelques réglages sur la balance… des blancs.

Autre point assez visible, qui a probablement causé le plus de soucis, le capteur de proximité employé pour détecter si l'iPhone est porté à l'oreille a été modifié. Il était presque invisible dans les prototypes, alors que la version finale a un capteur très visible, qui ressemble un peu à la Dynamic Island des modèles actuels… mais dans les bordures de l'écran. Un changement nécessaire : la version d'origine fonctionnait mal et activait l'écran alors qu'il ne devait pas l'être, ce qui pouvait amener une coupure de l'appel par erreur.

Enfin, cet iPhone 4 blanc était légèrement plus épais que le modèle noir, même si les différences étaient faibles (de l'ordre du dixième de millimètre).

Un prototype, reconnaissable à son capteur discret. Source.

Dans tous les cas, c'est un fiasco parfois oublié, mais qui a pu énerver certains acheteurs à l'époque, tant la version blanche est arrivée avec du retard. Apple a tout de même réussi à finaliser correctement cette variante : elle a fait les beaux jours de l'entrée de gamme quand la marque a vendu l'iPhone 4 avec 8 Go de stockage. Et l'iPhone 4S, lui, est arrivé en blanc directement.

Combien avez-vous d'AirTags et autres balises Localiser ?

Stéphane Moussie

mardi 28 avril à 19:12

Sondage

À ses débuts, on réfléchissait à deux fois avant de décider sur quel sac accrocher un AirTag, tant la petite balise était chère (40 € au lancement). L’ouverture du réseau Localiser a rapidement changé la donne. Depuis plusieurs années, on trouve des lots de quatre traceurs compatibles pour une vingtaine d’euros, soit même pas le prix d’un seul AirTag 2 (35 €). De quoi en glisser partout : trousseau de clés, voiture, sacs, valises, vélo, étui, portefeuille…

Et ce, sans compter tous les objets qui intègrent directement la fonction Localiser. Là aussi, la liste est longue entre les étuis à lunettes, chargeur de voyage, cadenas, étiquettes de bagage ou encore sacs à dos.

Image iGeneration

Résultat, certains utilisateurs, comme Pierre à la rédaction, finissent par atteindre la limite imposée par Apple. Celle-ci est fixée à 32 éléments, en sachant que sont également comptabilisés dans ce total les AirPods, et que ceux-ci peuvent compter pour deux ou trois éléments.

On a testé la véritable autonomie des traqueurs Bluetooth et des AirTags, et il y a des surprises

On a testé la véritable autonomie des traqueurs Bluetooth et des AirTags, et il y a des surprises

Toutes ces balises sont censées apporter une certaine tranquillité d’esprit, en permettant de garder un œil à distance sur un sac placé en soute ou de retrouver une valise égarée dans un aéroport. Du moins quand tout se passe bien et que l’AirTag ne sème pas le doute avec une position mise à jour trop tardivement, laissant croire qu’il se trouve ailleurs que là où il est réellement.

Alors, combien avez-vous d’AirTags et autres balises Localiser ? Comptez uniquement les balises recensées dans l’onglet Objets de l’application Localiser, qu’elles soient partagées ou non avec quelqu’un. On laisse de côté les AirPods et tout ce qui apparaît dans l’onglet Appareils.