Les premiers tests du GPU de l'A17 Pro, la puce conçue par Apple pour les iPhone 15 Pro, commencent à tomber. En effet, les nouveaux smartphones ont visiblement été testés sur GFXBench, un programme de test. C'est MySmartPrice qui a effectué des captures, et les résultats montrent des gains intéressants.
Sur le test en 1080p (Aztec Ruins Normal Tier), l'iPhone 15 Pro atteint 10 606 (165 fps), ce qui le place très largement devant l'iPhone 14 Pro (7 329, 114 fps), avec un gain de 44 %. L'iPhone 15 Pro s'approche même de l'iPad Pro équipé d'une puce M1 — qui a un GPU plus ancien mais avec plus d'unités —, qui ne prend la première place que d'une courte tête (6 %).
Sur le même test en 1440p (Aztec Ruins High Tier), l'A17 Pro monte à 3 905 (56,8 fps) contre 2 583 pour l'iPhone 14 Pro (40,2 fps), soit un gain de 51 %. Assez étonnamment, l'iPhone 15 Plus, doté a priori du même GPU que l'iPhone 14 Pro, est nettement devant : 3 078 (47,9 fps), il est donc environ 19 % plus rapide que l'iPhone 14 Pro.
Les iPhone 15 Pro sont aussi présents dans d'autres séries de tests, mais elles sont moins intéressantes : soit elles sont limitées par d'autres composants que le GPU lui-même (les différents tests Manhattan, qui donnent des résultats comparables entre toutes les puces) soit parce que la définition qui varie selon les modèles ne permet pas une comparaison directe.
Une GeForce GTX 960.
Il faut noter que si les performances sont élevées pour une puce de smartphones refroidie passivement, les performances restent faibles dans l'absolu : avec environ 4 000 points, l'A17 Pro est au niveau d'une GeForce GTX 960 de 2015, une carte milieu de gamme vendue environ 200 €. La différence principale vient évidemment de la consommation : la vieille carte de Nvidia avait un TDP de 120 W. Et donc malgré les apparences, les performances de l'A17 Pro peuvent être considérées comme très bonnes.
En même temps qu'iOS 17, voici la version finale de tvOS 17. Cette mise à jour introduit plusieurs nouveautés importantes, ce qui n'est pas fréquent pour le système d'exploitation de salon. tvOS 17 est compatible avec toutes les Apple TV équipées de tvOS 16, à savoir l'Apple TV HD et toutes les Apple TV 4K.
FaceTime sur Apple TV
La nouveauté la plus marquante, c'est sûrement l'arrivée de FaceTime sur Apple TV. Le boîtier n'ayant pas de caméra (pour l'instant ?), vous devez placer votre iPhone/iPad sous votre téléviseur ou à côté pour vous en servir comme d'une caméra.
Du karaoké en image
tvOS 17 exploite également l'iPhone comme caméra pour animer Apple Music Sing : vous pouvez vous voir sur la télé pendant que vous êtes en train de faire un karaoké. Cette fonction est disponible exclusivement sur l'Apple TV 4K 2022.
Des icônes en plus
L'interface du système a été revue à certains endroits, notamment au niveau des menus et des alertes qui reprennent le même style que ceux de macOS. Par ailleurs, l'écran d'accueil s'élargit pour accueillir 6 icônes d'apps par rangée au lieu de 5.
Une minuterie de veille
Le centre de contrôle, qui a lui aussi vu son interface refaite, comprend une nouvelle fonction : une minuterie de veille. Parfait si vous avez l'habitude de vous endormir devant la télé ; l'Apple TV s'éteindra automatiquement après le laps de temps que vous aurez défini.
À la recherche de la télécommande
Avec la télécommande virtuelle du centre de contrôle d'iOS 17, on peut partir à la recherche de la Siri Remote perdue dans la maison (modèle en aluminium apparu en 2021 au minimum).
Autres nouveautés
tvOS 17 apporte également la prise en charge du Dolby Vision 8.1 ainsi qu'une option pour améliorer les dialogues quand l'Apple TV est associée à un HomePod 2. La gestion des VPN tiers est en théorie une autre nouveauté importante du système, mais on attend encore des annonces concrètes dans ce domaine.
Après le traditionnel cycle de bêtas estivales, iOS 17 et iPadOS 17 sont maintenant disponibles en version finale. Contrairement à l'année dernière où l'iPad avait été servi plus tard, les deux nouveaux systèmes d'exploitation arrivent en même temps. Ils sont accompagnés de tvOS 17, de la version 17 du logiciel du HomePod et même de mises à jour des firmwares des AirPods.
Compatibilité
Commençons par la mauvaise nouvelle : trois iPhone sont privés d'iOS 17, à savoir l'iPhone 8, l'iPhone 8 Plus et l'iPhone X. C'est donc la fin des nouveautés pour l'iPhone X, qui avait inauguré en 2017 un design novateur. Ces modèles devraient néanmoins recevoir des mises à jour de sécurité pendant encore quelques années.
Les iPhone compatibles avec iOS 17 sont les suivants :
iPhone SE 2e et 3e génération
iPhone XR / XS / XS Max
iPhone 11 (Pro / Pro Max)
iPhone 12 (mini / Pro / Pro Max)
iPhone 13 (mini / Pro / Pro Max)
iPhone 14 (Plus / Pro / Pro Max)
et bien sûr tous les iPhone 15 bientôt disponibles
Du côté de l'iPad, iPadOS 17 fait une croix sur les iPad Pro de 1re génération (puce A9X, 2015-2016) et l'iPad 5 (puce A9, 2017).
Le nouveau système est compatible avec les tablettes suivantes :
iPad mini 5 (puce A12, 2019) et ultérieur
iPad 6 (puce A10, 2018) et ultérieur
iPad Air 3 (puce A12, 2019) et ultérieur
iPad Pro 2 (puce A10X, 2017) et ultérieur
Des nouveautés dans tous les domaines
Comme chaque année, ces mises à jour majeures amènent des améliorations dans quasiment toutes les parties des systèmes. iOS 17 inaugure le mode d'affichage spécial En veille, une fonction d'accompagnement dans Messages pour s'assurer qu'un ami arrive bien à destination ou encore un transfert facile des fiches contacts avec NameDrop.
Jon McCormack, vice-président en charge de l’ingénierie logicielle chez Apple, et Maxime Veron, directeur sénior en charge du marketing de l’iPhone, ont échangé quelques mots avec Numerama au sujet de l’appareil photo des nouveaux iPhone 15. Il a été notamment question du nouveau téléobjectif 5x qui va équiper les iPhone 15 Pro Max, avec une question principale posée par Nicolas Lellouche : pourquoi s’être arrêté à cette focale, équivalent 120 mm ? Pourquoi ne pas avoir été plus loin, comme Samsung qui est monté à 10x sur son Galaxy S23 Ultra ?
Les responsables d’Apple ont justifié le choix de leur entreprise avec trois arguments. Le premier est la stabilisation de l’image, qui devient de plus en plus difficile au fur et à mesure que le zoom augmente. Apple a jugé qu’elle pouvait faire un bon travail à 5x, mais que prendre une photo nette 10x sans un trépied était nettement plus compliqué. Alors que le téléobjectif présent dans l’iPhone 15 Pro Max pourra être utilisé par n’importe qui sans difficulté, ce qui est l’objectif principal du constructeur, un zoom supérieur n’aurait pas été aussi utile en raison de ces contraintes.
Deuxième argument, le téléobjectif 5x a une large ouverture à ƒ/2,8, la même ouverture que pour l’objectif 3x présent dans l’iPhone 15 Pro et les anciennes générations. C’est l’assurance de garder une bonne quantité de lumière sur le capteur et comme le relève le journaliste de Numerama, Samsung fait nettement moins bien de son côté avec une ouverture ƒ/4,9 sur le périscope du S23 Ultra. Faute de comparaison entre les deux, on ne sait pas encore si cet avantage technologique se retrouve sur les photos produites par le nouveau téléphone d’Apple, mais il part avantagé.
Le dernier argument est un petit peu plus étonnant : « l’iPhone est un appareil photo incroyablement social. Un zoom x10, équivalent 240 ou 250 mm, les personnes sont très éloignées. Vous perdez cette intimité. », justifie bizarrement l’un des responsables d’Apple. C’est le même qui sert à justifier l’absence de zoom numérique au-delà de 25x, là où Samsung monte à 100x avec son smartphone. Aller au-delà ne serait pas utile, tranche Jon McCormack.
Comme souvent, Apple aime bien faire référence à la photographie traditionnelle pour justifier ses choix. « Si vous regardez l’histoire de la photographie, la plage magique est l’objectif 24-70. Vous voyez le monde de manière expansive et de près. » Une référence à l’histoire qui ne l’empêche pas de se revendiquer à la pointe de la photographie informatisée, ou « computationnelle » comme on dit. D’ailleurs, les deux responsables promettent dans cette même interview qu’il reste encore de grandes avancées à obtenir avec les futures puces conçues par Apple. Du matériel qui travaille de concert avec le logiciel, on connaît bien le refrain désormais.
À propos de futur, ils n’ont pas voulu dévoiler de secrets sur l’enregistrement de vidéos destinées au Vision Pro, autre nouveauté réservée aux deux iPhone 15 Pro. Comme indiqué pendant le keynote, on sait que l’ultra grand-angle et le grand-angle sont utilisés en simultané pour créer, avec l’aide du LiDAR, une vidéo 3D. C’est un petit peu comme nos deux yeux, mais avec une bonne pincée de « magie computationnelle très mystérieuse » et on n’en saura pas plus…
Lors du keynote de présentation de l’iPhone 15, Apple a mis en avant une nouveauté de la puce A17 Pro : la prise en charge matérielle du ray tracing. Si vous ne connaissez pas bien le domaine de la 3D dans les jeux vidéo, ce segment a pu sembler un peu obscur. Nous allons donc tenter de vous expliquer ce que ça implique pour les jeux, pour les iPhone et pour tous les autres appareils ornés d'une pomme.
Image Apple/iGeneration
Mais c'est quoi exactement le ray tracing ?
Le ray tracing, ou lancer de rayons en français, est une méthode assez ancienne employée pour construire une image en 3D. L'idée de base est très simple : elle consiste à lancer un rayon à partir du point de vue de l'utilisateur dans un univers en 3D et de suivre sa trajectoire. Il peut arriver sur une surface mate qui réfléchit peu la lumière, comme un mur, ou une surface plus réfléchissante comme un miroir ou une flaque. Le système va calculer les réflexions possibles et faire repartir éventuellement le rayon dans une direction définie par les propriétés physiques de l'obstacle, jusqu'à ce qu'il rencontre une autre surface dans le modèle 3D, et les mêmes calculs recommenceront.
Cette solution est employée depuis des années dans les films d'animation, car elle permet un rendu extrêmement réaliste des reflets, ce qui n'est pas le cas des méthodes classiques qui se basent sur des approximations. Les ombres, les reflets dans les miroirs, dans les vitres ou sur l'eau sont très impressionnants visuellement et c'est depuis quelques années l'obsession des fabricants de cartes graphiques et d'une partie des développeurs. Le ray tracing n'est utilisé dans les jeux vidéo que depuis 2018, et seulement de façon hybride, car les ressources nécessaires sont extraordinairement élevées.
Une comparaison issue d'un document de chez Pixar, pour le film Cars. Notez les reflets des yeux, à droite. Image Pixar.
Reprenons avec un rendu classique. La rasterisation consiste à découper la scène en triangles (les polygones) placés dans un environnement en 3D, et ensuite projeter le tout sur un plan en 2D (l'image affichée sur votre écran). Les différentes étapes du rendu sont complexes, mais si vous devez ne retenir qu’une chose, c’est que la scène est construite triangle par triangle, sans interaction entre ces derniers. Une grande partie du travail consiste en réalité à corriger les « erreurs » de cette méthode, pour simuler les interactions, justement.
Le principe est de projeter les polygones sur un plan en 2D. Image Canard PC.
Un exemple schématique va être le reflet d'une lampe : il est souvent calculé par une simple approximation qui consiste à définir une texture de « reflet de lampe » qui va être placée sur le mur en face de cette dernière. C'est basique et finalement assez efficace, mais avec quelques défauts. Ce choix n'est fonctionnel que si vous êtes dans la bonne position et ne prend pas en compte le fait que votre personnage peut se trouver entre la lampe et le mur. C'est le problème vu au paragraphe précédent : les triangles du personnage et ceux du murs sont rendus de façon indépendante. Qui plus est, cette méthode ne prend pas en compte les reflets qui interviennent « dans la vraie vie ». Une lampe qui se reflète sur un mur un peu brillant peut aussi amener des reflets plus légers sur les autres murs, ce qui devient compliqué de gérer avec un rendu classique mais est très simple à faire avec le ray tracing d'un point de vue purement technique.
Cette comparaison issue de Quake II RTX montre bien le problème, spécialement avec un moteur 3D qui date de 1997.
Maintenant, comprenons nous bien : c'est un exemple très schématique pour bien appréhender les bases et les développeurs qui ont une trentaines d'années de jeux en 3D derrière eux ont des solutions pour cacher tout ceci, mais le ray tracing règle le problème plus facilement, ce qui explique en partie son succès.
La rasterisation a d'autres défauts, liés à son fonctionnement intrinsèque. Prenons un autre exemple : le rétroviseur d'un véhicule. Dans un rendu classique, il n'y a pas de méthode simple pour afficher son contenu et il faut généralement en réalité animer une seconde scène 3D, ce qui réduit évidemment les performances et peut induire un décalage. Le ray tracing, en théorie, règle le souci : il s'agit d'une réflexion de la scène principale, ce qui ne demande pas d'étapes supplémentaires. Mais c'est ici que le problème des performances se pose : afficher le contenu du rétroviseur est simple en théorie mais nécessite beaucoup de calculs.
Les premières cartes compatibles avec le ray tracing, en 2018.
La première société à ajouter une prise en charge du ray tracing dans les jeux vidéo a été Nvidia, avec les GeForce RTX de la famille 2000 en 2018. La compagnie a ensuite amélioré le tout (au niveau des performances) avec les versions RTX 3000 et RTX 4000 (2020 et 2022) et d'autres ont suivi. AMD a intégré le ray tracing dans les Radeon RX 60001 en 2020 et Intel dans ses Arc en 2022. Dans les appareils mobiles, Qualcomm propose le ray tracing dans le Snapdragon 8 Gen 2 et Samsung dans l'Exynos 2200, basé sur une technologie AMD. Enfin, les consoles modernes — PlayStation 5, Xbox Series X et Xbos Series S — sont compatibles avec le ray tracing grâce à leurs cartes graphiques AMD.
Resident Evil 4 Remake et Assassin's Creed Mirage arriveront aussi sur le Mac. La bonne nouvelle a été confirmée à IGN par Jeremy Sandmel et Tim Millet, respectivement en charge des équipes logiciel GPU et architecture plateforme d'Apple. L'interview a été l'occasion de revenir sur la montée en gamme des graphismes offerts par la puce A17 Pro, qui va notamment permettre la prise en charge du ray tracing et la technologie d'upscale MetalFX.
Jeremy Sandmel ne manque pas de rappeler que le portage entre les plateformes sera simplifié par l'unification de l'architecture Apple Silicon à travers le Mac, l'iPad et l'iPhone. « Il s'agit du même rendu, de la même qualité de rendu et du même jeu qu'ils avaient sur un PC de jeu et sur une console », explique-t-il. Si c'est impressionnant sur papier, la nouvelle fournée de jeux venue du monde de la console ne va-t-elle pas faire surchauffer l'iPhone 15 Pro ? Apple se veut rassurante.
« Au niveau du système, nous sommes en mesure de travailler avec plusieurs équipes pour comprendre comment les performances que nous permettons, comment elles vont se manifester dans le jeu réel, et si nous allons être en mesure non seulement d'atteindre ces taux d'images, ces performances de pointe et ces graphiques merveilleux », affirme Kaiann Drance, VP du marketing de l'iPhone au niveau mondial. « Je sais que nous faisons beaucoup de choses du côté du SoC et du côté du logiciel pour nous assurer que l'expérience sera excellente », ajoute-t-elle.
Assassin's Creed Mirage sur iPhone.
Interrogé sur la possibilité de jouer à Resident Evil 4 sur un écran externe (manœuvre simplifiée par l'arrivée du nouveau port USB-C DisplayPort), Jeremy Sandmel conçoit que cela sera faisable… même s'il n'est pas dit que l'iPhone arrive à suivre. « Oui, l'iPhone peut se connecter à ces écrans 4K et les piloter de manière externe pour tout ce que vous faites sur le téléphone, y compris les jeux sur ces autres écrans », explique-t-il. « La résolution et la fréquence d'images dépendront fortement de ce que fait le jeu ». Rappelons que l'iPhone ne disposera pas de mode dédié aux écrans externes comme Stage Manager : il s'agira simplement d'une recopie écran.
IGN a également demandé à Apple si elle recommandait l'utilisation d'une manette (Bluetooth ou berceau style BackBone One) pour jouer à ces titres. Il faut dire que l'idée de jouer avec des contrôles tactiles à un jeu de tir exigeant sur un écran de 6,1 pouces n'est pas des plus séduisante. Kaiann Drance explique que c'est aux développeurs de voir selon le contexte.
Certains développeurs comme Kojima [créateur de Death Stranding] veulent vraiment voir chaque pixel de l'écran et le gameplay est conçu pour fonctionner avec une manette, et ils peuvent le faire sur le Mac et sur le téléphone avec le même jeu. Ou s'ils veulent apporter une prise en charge du tactile vraiment excellente, nous avons un tas d'API de programmation logicielle et de prise en charge pour eux.
« Je crois qu'on dit que la meilleure console de jeu est celle que l'on a sur soi », avance Tim Millet avant d'ajouter que l'iPhone 15 Pro sera « la meilleure console de jeu ». Même si on ne pourra sans doute pas jouer des dizaines d'heures sur batterie, Apple affirme que ses optimisations lui permettent de proposer une autonomie convenable en jeu. « Nous avons conçu toute l'expérience pour être excellente, en veillant notamment à ce que les performances et l'autonomie de la batterie soient durables. », déclare Tim Millet. « Nous pensons y être parvenus ».
On en aura le cœur net prochainement, les premiers iPhone 15 Pro devant être livrés dès vendredi. Les deux Resident Evil arriveront sur iOS d'ici la fin de l'année, et Assassin's Creed Mirage sera proposé début 2024.
Home Assistant est un écosystème de domotique concurrent de HomeKit d’Apple, Google Home ou encore Alexa d’Amazon. Contrairement à ces géants, cette solution est open-source et encore réservée à un public d’initiés. Mais alors que Home Assistant fête son dixième anniversaire, ses créateurs espèrent bien simplifier l’accès à la plateforme, ce qui passe notamment par la création d’un nouveau boîtier prêt à l’emploi pour débuter avec cet écosystème. Home Assistant Green est vendu à partir de 99 $ (93 €, sans compter d’éventuelles taxes à l’import) et il permet de démarrer sans avoir à installer quoi que ce soit.
Le nouveau boîtier Home Assistant Green et son couvercle en plastique semi-transparent.
Comme le rapporte The Verge qui a pu tester le produit en avance, il suffit de relier l’appareil à sa box en Ethernet puis à son alimentation externe fournie. Après quelques minutes, on obtient une instance de Home Assistant, accessible depuis un navigateur web ou même l’app mobile du projet. Selon les besoins, on pourra partir de zéro ou importer une configuration existante à partir d’une sauvegarde. Sous le capot en plastique translucide, on retrouve un processeur ARM à quatre cœurs cadencés à 1,8 GHz, 4 Go de RAM et 32 Go de stockage eMMC, l’équivalent d’un Rasberry Pi 4 qui sera bien assez puissant pour les besoins du logiciel.
Même si c’est un boîtier prêt à emploi, il faut souligner qu’il ne se connecte au réseau local que par le biais de l’Ethernet, sans Wi-Fi. C’est mieux pour la fiabilité de ce qui deviendra un pont de connexion central dans votre domotique — les utilisateurs de HomePod en savent quelque chose dans le monde de HomeKit —, mais cela pourrait bloquer une partie de la clientèle visée. Autre limite importante, l’appareil ne gère ni les accessoires en ZigBee, ni en Thread et il faudra ajouter une clé USB pour cela. La SkyConnect conçue par Home Assistant peut être ajoutée à la commande pour 30 $ supplémentaires, même si on peut toujours l’ajouter par la suite et même opter pour un autre modèle.
Au bout du compte, est-ce que ce boîtier Home Assistant Green va vraiment simplifier l’accès à cette solution de domotique ? On peut avoir quelques doutes, car il reste un énorme travail à faire du côté de l’utilisation au quotidien. Même si le logiciel évolue rapidement et dans le bon sens, on reste sur un écosystème sophistiqué, qui permet d’aller nettement plus loin que les gros acteurs du marché1, mais qui nécessite aussi d’en faire bien plus soi-même. Son interface couvre la plupart des besoins, mais il faut toujours parfois revenir aux fichiers de configuration YAML. Et quand bien même, il faut toujours prendre du temps pour obtenir une interface aussi agréable et surtout simple d’utilisation que celle de Maison.
L’interface de Home Assistant peut devenir assez simple d’utilisation, mais il est toujours nécessaire de passer du temps, beaucoup de temps, à tout configurer.
Home Assistant a encore du chemin à parcourir pour séduire les utilisateurs les moins geeks, mais ce boîtier pas trop cher qui évite de bricoler avec un Raspberry Pi est indéniablement une bonne étape dans cette direction. Ses créateurs comptent aussi sur leur offre payante, Home Assistant Cloud, qui active notamment un accès à distance en un seul clic, alors qu’il faut bricoler avec la box de son fournisseur d’accès pour l’obtenir gratuitement. Cet abonnement facturé 7,5 € par mois ou 75 € par an offre quelques avantages supplémentaires, dont un relai avec les commandes vocales d’Alexa et de Google Assistant.
Pour ses dix ans, Home Assistant hérite également d’un nouveau logo qui reprend le concept du précédent, mais le simplifie. L’app officielle ne l’utilise pas encore pour son icône, mais cela viendra sûrement avec la prochaine mise à jour.
J’ai profité d’un déménagement pour faire de Home Assistant le cœur de mon installation domotique. Je commence à poser les bases d’une série pour le Club iGen, alors si le sujet vous intéresse, n’hésitez pas à le signaler dans les commentaires…
Google a toutefois été inspiré par son concurrent open-source et propose depuis peu des automatisations avancées sur le modèle de celles de Home Assistant. ↩︎