C’est jour de fête pour les chasseurs de Pokémon ! Un Meltan sauvage est apparu dans Pokémon GO, une bestiole inconnue des Pokédex, de type acier. La tête de ce Pokémon Écrou repose sur un corps composé de métal liquide, ce qui lui permet entre autres merveilles de corroder et d’absorber du métal (et de générer de l’électricité par la même occasion).
Cette créature étrange n’a pas manqué d’intriguer les joueurs qui sont tombés dessus ces derniers jours, mais il s’agissait alors d’un Métamorph prenant la forme du nouveau monstre. Cette fois, c’est bel et bien Meltan qui se signale dans le jeu mobile. Et que l’on peut toujours débusquer dans Pokémon GO, même si les apparitions du bidule sont plus rares.
Pour la première fois dans l’histoire de Pokémon GO, le jeu mobile sert donc à introduire une toute nouvelle créature. C’est le signe que le titre a pris une importance singulière aux yeux de la Pokémon Company et de Nintendo. Ce d’autant que Meltan aura un rôle à jouer dans les deux prochains jeux Pokémon destinés à la Switch, Let’s Go Pikachu et Let’s Go Évoli. Ces jeux, qui sortiront le 16 novembre sur la console de Nintendo, auront d’autres passerelles avec Pokémon GO.
Au premier coup d’œil, l’iPhone XS ressemble à l’iPhone X comme deux gouttes d’eau. Au premier coup d’œil seulement. Comme nombre de modèles « S » avant lui, il se distingue par sa fiche technique, notamment en matière d’imagerie. Montée en définition, agrandissement du capteur, perfectionnement de l’optique, stabilisation du bloc… les « années S » sont des années de progrès photographiques.
C’est encore le cas cette année : l’iPhone XS intègre un nouveau capteur et une nouvelle optique. Mais l’appareil photo n’est plus un composant isolé — il fait partie d’une chaîne de puces et de logiciels, dont les caractéristiques importent autant, si ce n’est plus, que celles du capteur. Or avec la puce Apple A12 Bionic et le Neural Engine de nouvelle génération, c’est toute la chaîne qui a été revue.
Encore aujourd’hui, l’iPhone X reste parmi les tout meilleurs « photophones » du marché. Pourtant, il fait pâle figure face à l’iPhone XS. En mariant le logiciel et le matériel, en entrant de plain-pied dans l’ère de la « photographie informatisée », Apple a franchi un cap. Explications en photos.
Un capteur plus grand
Commençons par cette photo sans grand intérêt esthétique, prise au même endroit avec les objectifs grand-angle d’un iPhone 8 Plus (à gauche) et d’un iPhone XS Max (à droite).
Le champ de vue de l’iPhone XS est plus étendu. Les données EXIF de la photo montrent qu’il possède une optique 4,25 mm, alors que l’iPhone 8 Plus possède une optique 3,99 mm. Comment une optique plus « longue » peut donner une photo plus « large » ? Avec un capteur plus grand — sauf qu’Apple, comme à son habitude, n’a pas détaillé les spécifications du capteur.
Il n’est pas difficile de les retrouver : les applications de traitement photographique donnent les distances focales équivalentes, 26 mm pour l’iPhone XS et 28 mm pour l’iPhone 8 Plus. Le grand-angle de l’iPhone XS est bien « plus grand-angle » que celui de l’iPhone 8 Plus, les choses rentrent dans l’ordre.
Une petite division nous donne le coefficient d’agrandissement : celui de l’iPhone 8 Plus (x7,02) correspond peu ou prou à celui d’un capteur 1/3", mais celui de l’iPhone XS (x6,12) rappelle plus le Super 8 qu’un format de capteur standard. Alors quoi ? Comme Apple parle d’un capteur 32 % plus grand et de photosites de 1,4 µm, elle utilise sans doute un capteur 1/2,3".
Le grand-angle est plus grand-angle, le téléobjectif est… moins téléobjectif. Pour conserver un « zoom x2 », il doit passer à 52 mm, contre 57 mm sur l’iPhone 8 Plus. C’est bien le seul changement apporté à cette partie de l’appareil photo. Le téléobjectif reste comparativement moins lumineux que le grand-angle (ƒ/2,4 contre ƒ/1,8) et reste associé à un petit capteur 1/3,6" d’ancienne génération.
L’iPhone XR montre que ce deuxième capteur n’est pas absolument nécessaire, d’autant moins qu’il est régulièrement désactivé. On ne regrettera pas sa présence : il apporte des informations supplémentaires, améliore la qualité du zoom numérique, participe au mode Portrait. Mais il est difficile de continuer à s’enthousiasmer, quand on voit ce que Google sait faire avec un seul capteur, ou ce que d’autres font avec un deuxième capteur monochrome ou une deuxième optique très-grand-angle.
Des couleurs plus saturées
Ces deux premières photos vous ont peut-être mis la puce à l’oreille : l’iPhone XS accélère la tendance des dernières années en matière de réchauffement colorimétrique. Apple a rejoint le camp de Samsung, et privilégie un traitement flatteur des couleurs, alors que Google s’en tient à une interprétation plus neutre. Cette tendance touche tout le spectre, comme le montrent les photos suivantes.
Faut-il s’en plaindre ? Difficile de le dire : dans les précédents exemples, l’iPhone XS nous semble mieux retranscrire la profondeur de la verdure et la chaleur des briques, mais l’iPhone 8 capte mieux le ciel orageux. Cette comparaison directe accentue la différence de traitement — au quotidien, elle n’est pas toujours aussi tranchée.
Apple n’a pas fait ce choix au hasard : sur l’écran OLED de l’iPhone XS, qui prend en charge l’espace colorimétrique étendu P3, les photos sont vibrantes et lumineuses. Plus qu’une question technique, il s’agira d’une question de goût. Certains trouveront ce traitement flatteur et naturel, d’autres le trouveront complaisant et artificiel.
Un dynamique Smart HDR
Regardez le ciel de la première photo de cet article, ou le coin gauche de la précédente. Alors que les tons les plus clairs ne sont pas loin d’être « cramés » sur les anciens iPhone, ils restent colorés sur l’iPhone XS. Grâce à des photosites plus « profonds », capables de capter jusqu’à 50 % de lumière en plus, et une électronique améliorée, le nouveau capteur possède une meilleure dynamique1.
L’iPhone XS ne captera pas le souvenir du bleu dans un ciel laiteux et se laissera éblouir par un spot de chantier, mais sera capable de capter les détails d’une enseigne lumineuse ou de révéler les secrets d’un couloir obscur. Là où les iPhone 8 et X ratent la photo s’ils ne passent pas en mode HDR, et parfois même s’ils passent en mode HDR, l’iPhone XS prend une photo « normale ».
Les guillemets sont de rigueur : les seules capacités du capteur ne parviennent pas à expliquer certaines différences à peine croyables. Grâce au processeur A12 et au Neural Engine, Apple peut jouer avec le flux de données provenant du capteur pour composer et recomposer des images. À chaque fois que vous appuyez sur le déclencheur, l’iPhone XS prend jusqu’à neuf photos successives, et réalise des milliards d’opérations pour assurer le meilleur résultat.
Le téléphone est autant photographe que vous, vous ne maîtrisez pas l’ensemble des paramètres, le logiciel et le matériel font des choix à votre place. Comme celui de décider que telle photo mérite le label « HDR », et pas une autre, alors qu’elles sont toutes produites par fusion de multiples expositions.
Vous voulez seulement prendre une photo au débotté ? Ces automatismes vous sauveront la mise. Vous voulez prendre le temps de composer une photo ? Ces automatismes vous mettront des bâtons dans les roues. Le logiciel veut corriger toutes les erreurs, mêmes quand elles sont intentionnelles. Ainsi, il est beaucoup plus difficile de réaliser des silhouettes, puisque le Smart HDR veut éviter de boucher les ombres, ou de « noyer » un sujet en contre-jour, puisqu’il veut éviter de cramer les hautes lumières.
Et puis tout « Smart » soit-il, le mode HDR n’est pas toujours pertinent. L’iPhone XS décide parfois de pousser les traitements dans des situations qui ne devraient pas poser de problème particulier, ce qui n’est pas particulièrement grave, mais aplatit quelque peu les photos, en compressant la dynamique. Surtout, il fait parfois plus de mal que de bien, comme dans l’exemple suivant, certes plutôt rare.
Des portraits
Pour être tout à fait complet, il faut enfin parler du mode Portrait, qui repose désormais sur une notion d’ouverture virtuelle. Dans la plupart des cas, Apple simule le flou de profondeur d’un objectif ouvrant à ƒ/4,5 (devant un capteur APS-C ? Un capteur plein format ? Allez savoir !). Après coup, ce flou peut être renforcé pour correspondre à celui d’un caillou ouvrant à ƒ/1,4, ou diminué comme si l’on fermait à ƒ/16.
Bien sûr que cette fonction tient du gadget. Mais vous savez quoi ? Un gadget peut en dire long. La simulation de l’ouverture montre les progrès constants du mode Portrait. S’il trébuche toujours sur les mèches volantes ou les branches de lunettes, il n’est plus effrayé par les boucles et les bijoux. Surtout, en faisant varier le curseur d’ouverture virtuelle, on voit comment le flou est appliqué non pas seulement à l’arrière-plan, mais aussi à l’avant-plan.
Le visage n’est plus découpé à l’emporte-pièce sur le fond, mais graduellement flouté. À ƒ/1,4, quelques centimètres seulement sont nets, comme ils le seraient si l’on avait pris la photo avec un boîtier professionnel. C’est encore un flou trop parfait, sans les imperfections et les bokeh balls qui font le charme de certains cailloux d’exception, mais cela commence à devenir franchement impressionnant.
Et cela veut dire qu’à travers le logiciel, une optique physique ƒ/1,8 devient une optique logicielle ƒ/1,4. On ne parle bien sûr que des caractéristiques du flou de profondeur — aucun logiciel ne fera rentrer plus de lumière dans le boîtier. Mais cette fonction contribue à nous faire entrer dans un monde où l’on ne voit plus où s’arrête le logiciel et où commence le matériel. La photographie numérique sera — elle l’est encore à peine — le véritable produit de la vision du capteur, du traitement du processeur, de l’interprétation des algorithmes.
Comme Apple, Google mise à fond sur le traitement logiciel réalisé en local sur ses Pixel. Et si les fabricants traditionnels semblent faire du surplace depuis des années, c’est que leurs processeurs sont cruellement moins rapides que les puces conçues à Cupertino. Google produit parmi les tout meilleurs photophones, les boîtiers reflex ont encore de beaux jours devant eux : l’approche d’Apple n’est pas nécessairement meilleure, mais elle continue à distinguer clairement l’iPhone des autres appareils photo.
Autres différences, toujours sur le « grand » capteur de l'objectif grand-angle : la durée maximale d'exposition passe à une seconde (contre 1/3 s auparavant) et la sensibilité maximale grimpe à ISO 2304 (contre ISO 2112). ↩︎
Raccourcis est l’app d’automatisation d’Apple fournie avec iOS 12. Elle peut servir à automatiser des petites actions du quotidien, mais l’app peut aussi être utilisée dans des cas nettement plus complexes, comme le montre cet impressionnant raccourci dédié aux abonnés Free.
Ce raccourci analyse la situation actuelle pour déterminer si votre iPhone est connecté au réseau propre de Free, ou s’il exploite le réseau d’Orange en itinérance. Dans ce dernier cas, les débits sont souvent très mauvais, les abonnés Free ont donc intérêt à rester sur le réseau de Free, mais iOS peut en décider autrement en fonction des cas.
Si l’iPhone est en itinérance, le raccourci coupe la connexion cellulaire pendant quinze secondes, puis la réactive. Il analyse ensuite à nouveau la connexion pour vérifier si le réseau a changé et en informe l’utilisateur. Il ne permettra pas de bloquer un iPhone en permanence sur le réseau de Free et le raccourci devra être lancé par l’utilisateur, il ne peut pas fonctionner à l’arrière-plan.
Malgré tout, c’est un exemple assez impressionnant de ce que l’app d’Apple permet de réaliser. Si vous êtes abonné Free, n’hésitez pas à essayer ce raccourci, les premiers retours semblent indiquer qu’il fonctionne bien.
On sait tellement tout sur les nouveaux Pixel 3 que Google présentera officiellement en octobre que l’on en vient aux fonds d’écran intégrés par défaut. Quelqu’un a réussi à mettre la main sur toutes les images qui seront proposées sur le Pixel 3 XL au moins et tant qu’à faire, il les propose toutes à cette adresse. Si vous en avez assez de la sélection d’Apple, vous y trouverez de quoi renouveler votre stock !
Ce n’est pas tout : les utilisateurs de smartphone sous Android peuvent même télécharger un fichier .apk, une app qui installera les fonds d’écran et surtout leurs versions dynamiques. En effet, la plupart de ces images peuvent s’animer sur les appareils Android, en fonction de votre utilisation du smartphone. C’est une idée que Google avait déjà utilisé sur ses Pixel 2 et qui sera à nouveau proposée cette année.
Même s’ils ne bougent pas, les quinze fonds d’écrans proposés par Google seront parfaitement à leur aise sur un iPhone, un petit peu moins sur un iPad.
Vous êtes plusieurs à nous avoir fait remarquer qu’il y avait un statut de lecture pour les SMS sous iOS 12. Depuis le tout premier iPhone, c’est une fonction réclamée par une partie des utilisateurs et qu’Apple n’avait jamais ajoutée. Les seuls statuts de lecture que l’on pouvait obtenir jusque-là de l’app Messages concernaient iMessage, la messagerie instantanée du constructeur, mais les SMS en étaient exclus. Jusqu’à maintenant ?
Sur nos iPhone, nous avons effectivement une mention « Lu » sous certains SMS, indiqués par une bulle verte. Contrairement aux iMessages, associés à des bulles bleues dans l’app, il n’y a pas de jour ou d’heure indiquée, ce qui rend la fonction moins utile. Mais surtout, elle ne semble pas au point et elle ne fonctionne qu’à moitié, voire pas du tout.
Sur les deux exemples donnés ci-dessous, seul celui de gauche est cohérent. Le dernier message est indiqué comme « Lu », signalant que le destinataire l’a non seulement reçu, mais aussi lu. Sur l’exemple de droite néanmoins, c’est un message plus ancien qui est marqué comme étant lu, alors même que le destinataire a répondu aux messages suivants. Est-ce simplement une erreur d’affichage ? D’après nos essais, c’est surtout que la mention « Lu » n’apparaît pas systématiquement.
Nous avons testé l’envoi de SMS entre deux iPhone sous iOS 12, et nous n’avons pas réussi à voir la mention « Lu » sur l’un, ou sur l’autre. Cela ne semble pas forcément mieux fonctionner avec un appareil Android, en tout cas ce n’est pas aussi systématique qu’avec les iMessage. Peut-être que c’est pour cette raison qu’Apple n’indique aucune heure de lecture, c’est peut-être une fonction qui fonctionne parfois, mais pas toujours, et qui ne peut pas être considérée comme fiable.
Rappelons que les statuts de lecture doivent être activés avec l’option « Confirmations de lecture » dans l’app Réglages, puis la section dédiée à Messages. De cette option dépend l’affichage des statut pour les iMessages et, avec iOS 12, peut-être pour les SMS.
Si vous échangez régulièrement avec des personnes en SMS, avez-vous noté cette fonction d’iOS 12 ? Semble-t-elle fiable dans votre cas ?
[MàJ 25/09/2018 18h14] : vous êtes plusieurs à signaler avoir vu ces mentions « Lu » sur iOS 11. Il s'agit très certainement d'un bug, peut-être lié à la synchronisation des messages dans iCloud, certains suggérant que la mention était apparue avec cette fonction.
Nomad lance le mois prochain la Base Station un tapis de recharge par induction et par USB qui semble intéressant, sur le papier. Ce pavé rectangulaire noir est capable de recharger simultanément quatre appareils : deux par induction (10W maxi chacun) et deux reliés en USB (1 x USB-A dispensant 7,5W et 1 x USB-C de 18W).
Le port USB-C est compatible avec le protocole Power Delivery, ce qui autorisera la recharge d'un MacBook ou MacBook Pro mais à petite vitesse comparé au chargeur fourni par Apple. Pas d'Apple Watch par contre puisque les modèles actuels, en l'état, ne sont pas compatibles avec les chargeurs Qi standards.
La surface pour l'induction est revêtue d'une large pièce de cuir qui donne un peu de cachet à cet accessoire. Il sera vendu 99,95 $ à compter du 8 octobre (il est en précommande).
Nomad a quelques articles sur Amazon France et s'agissant de celui-ci, le fabricant précise qu'il est livré avec des adaptateurs européens et britanniques. Ce qui peut laisser espérer une disponibilité chez nous à terme.
Vous avez un nouvel iPhone et vous habitez à Lyon, Saint-Étienne ou Marseille ? Bonne nouvelle si vous êtes abonné chez SFR : vous pourrez désormais bénéficier de débits plus rapides en 4G. L’opérateur a lancé officiellement aujourd'hui la 4G+ à 500 Mbit/s dans ces trois villes, en plus de Bordeaux où c’était déjà le cas depuis le mois de juillet.
Pour atteindre de tels débits, SFR agrège quatre bandes de fréquences 4G (800 MHz, 1800 MHz, 2100 MHz, 2600 MHz). Et ce n’est pas fini, puisque l’opérateur a prévu d’atteindre le gigabit dès l’année prochaine, en attendant bien sûr la 5G à partir de 2020. En attendant, « plus de dix » communes en tout devraient être couvertes par cette 4G+ d’ici à la fin de l’année, et une dizaine de communes1 bénéficient aussi dès aujourd'hui d’un débit théorique qui peut atteindre les 300 Mbit/s.
Tous les smartphones compatibles avec la 4G de catégorie 11 ou mieux peuvent bénéficier de la 4G+ à 500 Mbit/s de SFR. Chez Apple, cela concerne les iPhone 8 et 8 Plus, l’iPhone X, les iPhone XS et XS Max et l’iPhone XR. Les Galaxy S8 et S9 de Samsung, le OnePlus6 ou encore les Huawei P20 et P20 Pro sont aussi dans cette liste.
Liste fournie par SFR : Montluel (01), Le Rouret (06), Castelginest (31), Bègles (33), Carignan-de-Bordeaux (33), Bouguenais (44), Anstaing (59), Tourcoing (59), Wasquehal (59), Wingles (62). ↩︎