iOS 18 : Siri va pouvoir poser des questions directement à ChatGPT

Félix Cattafesta |

Apple a officialisé un partenariat avec OpenAI, qui va se traduire par une intégration entre ChatGPT et Siri ou différents outils Apple. En pratique, on pourra poser une question à l’assistant qui pourra remonter tout cela à ChatGPT et répondre aux requêtes.

C’est le récent GPT-4o d’OpenAI qui est intégré à Siri. À chaque fois, l'assistant demandera la permission pour contacter les serveurs d’OpenAI. Si vous l'accordez, vous aurez la réponse de l'assistant dans la foulée. Un pop-up pourra apparaître dans certaines apps, par exemple pour demander à ChatGPT de générer du texte.

ChatGPT sera accessible sans créer de compte, et les requêtes ne seront pas stockées sur les serveurs. L’intégration de ChatGPT aura lieu plus tard dans l’année. D’autres modèles pourraient suivre par la suite.

avatar morphine63 | 

Pire conf all Time

avatar sylvain15250 | 

@morphine63

On est d’accord, quelle purge cette édition 2024… j’aurais pu demander à Apple Intelligence de réécrire cette réponse mais vu les performances du correcteur…

avatar morphine63 | 

@sylvain15250

J’ai pas compris.
Je suis moi même ingénieur, et ce que j’attends le plus c’est les Genmoji et les dessins sur notes.

avatar PommePommePidou | 

@morphine63

Tu les as toutes regardé ?

avatar PommePommePidou | 

@morphine63

Tu les as toutes regardé ?

avatar simnico971 | 

Rien en France avant l'année prochaine ! 🙃

avatar Baptiste_nv18 | 

@simnico971

Dispo, juste pas en Français.

avatar oomu | 

donc pas dispo.. ;)

avatar flux_capacitor | 

J'espérais que Siri devienne GPT-4o, avec toute la subtilité et l'intelligence émotionnelle de l'agent conversationnel d'OpenAI, ainsi que sa capacité à comprendre le monde réel via la caméra de l'iPhone… c'est raté.
Ce « un moment je vous prie, laissez-moi demander à ChatGPT » me semble bien lourdingue.
Un peu comme lorsque la téléconseillère que vous avez au bout du fil, qui ne connaît pas la réponse, demande de bien vouloir patienter un instant pour aller demander à son supérieur !

avatar Boboss29 | 

@flux_capacitor

Le problème c'est la confidentialité d'open ai, en te permettant de choisir, ça t'appartient d'utiliser ou non chat gpt. Apple reste cohérent avec sa philosophie.

avatar flux_capacitor | 

En effet. Ça démontre seulement à quel point Apple est en retard en la matière. Quand j'ai entendu Craig Federighi dire « ça fait tellement longtemps qu'on travaille sur ces projets » j'ai ri et immédiatement corrigé mentalement « on a tout misé sur l'IA au dernier moment depuis les annonces fracassantes d'OpenAI, surtout qu'on s'est complètement plantés sur l'Apple Car, que tous les constructeurs automobiles nous ont jetés dehors avec CarPlay 2, et qu'on avait rien vu venir tellement Tim était obnubilé par le casque VR creepy à 3500 dollars »

avatar flux_capacitor | 

Double post. Qu'est-ce que ça rame ce soir !

avatar Brice21 | 

@flux_capacitor

Apple a inventé le NPU en l’intégrant a A11 Bionic en 2017. Je crois qu’OpenAI n’existait même pas.

avatar flux_capacitor | 

OpenAI a été fondée en 2015. Mais peu importe, on parle ici de LLM, pas de deep learning pour détourer des cheveux ou trouver immédiatement les images de son chien dans la photothèque.

avatar PommePommePidou | 

@flux_capacitor

Ce que tu espérais n’est pas possible sans la présentation matériel. Et qui dit nouvelles fonctionnalités dit nouveau matériel donc nouvel iPhone. Et c’est pas à la wwdc que tu allais l’avoir. Ce n’est pas la philosophie de la pomme. Mais c’est ce qui semble se destiner : Donc rendez-vous en septembre.

avatar flux_capacitor | 

Non. Ce qu'il y aura en septembre, c'est ce qu'on a vu lors de cette Keynote. Il n'y aura rien d'autre, et pas du tout de "Siri GPTisé" (et je ne parle pas de ce tandem séparé Siri-ChatGPT, mais d'une hypothétique fusion des deux). Et c'est même pire, pour les fonctionnalités étendues AI de Siri, Federighi a bien expliqué qu'elles n'arriveraient que l'année prochaine, courant 2025.

On peut même craindre au contraire que certaines des fonctionnalités majeures présentées (pas de nouvelles pour le moment cachées, si ce n'est des choses accessoires) soient restreintes à l'iPhone 16 Pro et à l'iPad Pro M4. C'est un risque.

Est-ce que malgré tout ce dont je parlais finira par arriver ? Oui. En 2024 ? Non. En 2025 ? Non plus. Apple le fera clairement à sa sauce, ils n'intégreront jamais ChatGPT au cœur même de Siri comme je le croyais naïvement avant la Keynote. Pour ça, il faudra qu'ils rattrapent leur monumental retard en matière de LLM. Ça mettra des plombes, à voir donc pour iOS 19 voire iOS 20. Comme Google Maps vs Apple Plans.

avatar acnhc | 

@flux_capacitor

Non mais faut pas rêver Siri aussi puissant que ChatGPT c’est tout simplement un rêve. Apple souhaite garder du local pour Siri, et c’est tout bonnement impossible pour le moment de faire tourner chatGPT en local sur ces appareils.
De plus, imaginez une conversation Siri avec chaque requête envoyées sur un serveur, quand on voit le temps de réponse de ChatGPT dans sa propre app, on s’imagine pas converser avec une telle latence. Siri aussi puissant que ChatGPT en local c’est une utopie aujourd’hui.

C’est pourquoi Apple propose un Siri dopé à l’IA qui en fait repose sur un modèle de taille adaptée pour tourner en local sur un iPhone, et encore, uniquement les derniers (sûrement parce qu’en fait l’A17 Pro est très proche des Mx, les seules puces assez puissantes pour le modèle IA choisis)

avatar ohmydog | 

@flux_capacitor

T’es très naïf d’un point de vue industriel en effet.
Mettre un produit que le marché qui dépend entièrement d’Open AI quand tu t’appelles Apple, je pense que t’as effectivement rien compris à la strategie industrielle.

avatar flux_capacitor | 

Merci pour ta sympathique analyse. Je m'en sens grandi.

avatar PommePommePidou | 

@flux_capacitor

Je n’ai pas envie de partager tout mon contenu privé à ChatGPT. Une fusion Siri x ChatGPT comme tu le souhaites est la porte ouverte à tout notre contenue d’iPhone à OpenAi.
Le procédé actuel proposé par Apple est mieux pour l’instant (pour un début).
Concernant les délai en France je préfère un déploiement progressif mais stable que massif mais instable. Il ne me semble pas qu’à la sortie de ChatGPT, le français était parfaitement géré, non ? 👀

avatar oomu | 

"Veuillez patienter, l'IA locale va contacter l'IA supérieure."

-
le point à terme, c'est que tout reste local pour avoir un outil privé, personnel et sécurisé. Qu'importe si c'est chatgpt ou du "privateuh cloudeuh chez nous Apple"

l'échec n'est pas ChatGTP, c'est d'avoir besoin de déporter : l'échec EST le NUAGE.

avatar flux_capacitor | 

En théorie oui, mais l'augmentation des performances entre puissance de calcul en local vs dans le nuage devient fortement asymétrique en faveur écrasante du nuage, principalement à cause des quantités astronomiques de mémoire vive requises pour faire fonctionner les LLM les plus avancés. Je doute que nous ayons des centaines de giga-octets voire des téraoctets de RAM dans nos appareils portatifs pour faire jeu égal à court ou même moyen terme.

Surtout avec un CEO qui prétend que 8 Go sont suffisant pour tous les usages ;-) (ceci est une plaisanterie, pour ceux dans les commentaires qui pensent comme des LLM)

Mais en fait, pour qui veut converser 100% en local avec une IA avancée, il n'y a qu'à acquérir un Mac Studio Mx Ultra avec 192 Go de mémoire unifiée, pour 7000 euros.
BYOKAM.

avatar ohmydog | 

@flux_capacitor

Et du coup quel mal y a t il à demander à quelqu’un qui sait ?

avatar Brice21 | 

@flux_capacitor

"J'espérais que Siri devienne GPT-4o, avec toute la subtilité et l'intelligence émotionnelle de l'agent conversationnel d'OpenAI, ainsi que sa capacité à comprendre le monde réel via la caméra de l'iPhone… c'est raté. "

Tu as une idée de la puissance de calcul (donc de l’investissement mobilisé en carte H200 de nVidia) et en électricité pour faire tourner ces conversations ?

Sais-tu que Microsoft envisage de construire des SMR (des réacteurs nucléaires) à côté de ses Data Center pour rendre ca possible ?

Bref, ce n’est pas viable économiquement sans brûler les milliards de Microsoft ou Google. Ca ne peut pas durer longtemps à ce rythme.

avatar lewax | 

Le logo de Siri sur la première image ressemble furieusement au logo creative cloud… Non?

avatar guibrush | 

Merveilleux.

avatar Clems87100 | 

En cours d’installation sur 14 pro max

avatar VanZoo | 

Ils ont bien insisté pour dire que ce n’est que le début.

Pas de chinois, pas de japonais non plus… etc
Les gros marchés d’Apple vont gueuler et se détourner d’Apple.

avatar oomu | 

comme à chaque fois qu'Apple ne fournit pas une fonctionnalité en Français : l'effondrement total d'Apple.

avatar Levrai | 

On atteint des sommets de médiocrité avec cet iOS 18. Apple publie des travaux à tout-va, promet des LLM au niveau de ChatGPT et au final, c'est juste Siri qui va faire l'intermédiaire avec ChatGPT ? Sérieusement !?! 🤣😂😅
Apple a tellement d'avance sur la concurrence (d'après les fanboys) que la seule chose qu'il propose, c'est un ersatz de Siri ? Encore faut-il qu'il comprenne la question, et ce n'est pas gagné...

avatar cecile_aelita | 

Il faudra aussi un iPhone 15 pro minimum pour utiliser chatGPT comme je le fais tous les jours sur mon 11 pro ? 🤭

avatar firefox | 

@cecile_aelita

Ils sont pas fous, faut bien les vendre maintenant qu’ils sont fabriqués 😅

avatar fredsoo | 

Siri n’est pas prêt d’être activé sur mes appareils.

avatar Teknikarts | 

Aucuns intérêts cette Keynote. Avec mon 11 Pro Max, je vais continuer d’utiliser l’application ChatGPT à part. Mieux optimisée, plus performante et en français !

avatar cecile_aelita | 

@Teknikarts

Personnellement j’utilise Copilot.
Vous l’avez déjà testé ? Si c’est le cas, qu’est ce que l’application chatgpt a de plus ?
Je vous remercie d’avance.

avatar oomu | 

Personnellement j’utilise Chatgtp.
Vous l’avez déjà testé ? Si c’est le cas, qu’est ce que l’application copilot a de plus ?

avatar Teknikarts | 

@cecile_aelita

Copilot n’est qu’une sur couche de ChatGPT et de DALL-E. La dernière version de ChatGPT4o n’est pas encore disponible sur l’app de Microsoft mais ça reste une bonne alternative gratuite.

J’ai l’impression que sur beaucoup de choses Copilot est moins performant que ChatGPT.

avatar Levrai | 

Effectivement Copilot est un poil moins performant que chatgpt. Copilot ne comprend pas le klingon alors chatgpt si!😎

avatar 3RIC | 

Siri, AI, Gpt.. un peu la confusion..

Pourquoi pas un seul truc balaise ?!

avatar oomu | 

c'est vrai ça !

parce que concrètement l'interface que vous utiliserez s'appellera "Siri"

les "apple zintelligence" c'est la plateforme, chatgepetto c'est leur prestataire.

avatar Moebius13 | 

Ben voilà ! Maintenant j’attends ceux qui me soutenaient qu’Apple n’était pas en retard sur l’IA avoir l’honnêteté intellectuelle de venir me dire « au temps pour moi tu avais raison », mais je crois que ce serait trop demander…

Apple est donc bel et bien aux fraises et leur solution c’est vraiment de la 💩

Siri qui pose des questions à chat GPT, j’ai même pas les mots tellement c’est nul, même moi je m’attendais à une meilleure solution, mieux intégrée, c’est minable !

avatar Absolut Piano | 

Sans parler des images générées colorées pour école primaire ! 🥲

avatar Brice21 | 

Il faut absolument regarder la première demi-heure de la WWDC State of the Union pour comprendre l’ampleur des innovations d’Apple Intelligence :
https://youtu.be/YJZ5YcMsgD4

On vit la même révolution que la naissance de la micro-informatique à l’époque des Mainframes Déc, Vax et IBM avec ce qui va se passer entre les AI dans le Cloud et les AI locales. On est à l’an 1 d’un basculement majeur qui va s’étaler sur 10 ans et qui va rendre l’AI Générative plus pertinente, moins coûteuse, plus rapide et viable économiquement.

Car commencer à construire des centrales nucléaires à côté des Data Center pour reduire les coûts de l’AI Générative et éviter de brûler les milliards de Microsoft (OpenAI inclu) et Google, c’est peut-être pas la meilleure solution.

Rendre l’AI gratuite car elle tourne en local, c’est bien plus malin. Évidemment ça va prendre quelques années et cycle d’amélioration des NPU, des modèles, de la RAM, de vos iPhones mais cela vaut la peine de passer d’une folie furieuse impayable à une AI “gratuite”.

CONNEXION UTILISATEUR