Les rumeurs entourant l'arrivée d'un véritable chatbot "maison" au sein d'iOS 27 se font de plus en plus pressantes. Intégré nativement à Siri, ce nouvel assistant donnerait enfin à la Pomme les armes pour lutter à armes égales avec la concurrence. Jusqu'ici souvent moqué pour ses lacunes, l'assistant d’Apple pourrait devenir le point d’entrée unique pour n'importe quelle requête complexe pour des centaines de millions d’utilisateurs. Mais voilà, l'intelligence artificielle générative a un coût, et pas des moindres. D'où l'interrogation soulevée par MacRumors : Apple pourra-t-elle éternellement offrir ce service ?
Siri : interactions avec les données dans iOS 26.4, mais le chatbot complet n’arriverait qu’avec iOS 27 et sur serveurs Google
Un assistant à tout faire, partout
Selon les indiscrétions de Mark Gurman, ce "nouveau" Siri serait capable de tout : recherche web avancée, création de contenu, génération d’images, synthèse de documents et analyse de fichiers. Mieux encore, il pourrait piloter les applications et s'appuyer sur vos données personnelles pour répondre à des requêtes contextuelles. En bref, tout ce que propose un ChatGPT aujourd'hui, mais avec une intégration profonde dans l'écosystème Apple.
Si Apple mise énormément sur la puissance de ses puces Ax et Mx pour traiter un maximum de tâches en local, la réalité technique est plus complexe. Le modèle d'Apple, développé en collaboration avec les équipes de Google Gemini, serait comparable à Gemini 3. Or, une telle puissance de calcul ne tient pas (encore) dans la poche, ni même dans un Mac haut de gamme.
Pour faire tourner la machine, Apple devra s'appuyer sur ses serveurs Private Cloud Compute, mais aussi, semble-t-il, sur l'infrastructure de Google. Et à Cupertino comme à Mountain View, personne ne travaille gratuitement.
Le nerf de la guerre : le coût du calcul
Qu’Apple utilise ses propres serveurs ou ceux de Google, la facture s'annonce salée. Chaque requête, chaque image générée, représente une dépense réelle en électricité et en puissance de calcul.
Google a injecté 85 milliards de dollars dans ses infrastructures en 2025. OpenAI dépense des sommes astronomiques en inférence sans être encore rentable. Une simple requête texte sur Gemini consomme environ 0,24 watt-heure.
À l'échelle d'un milliard d'iPhone, ces fractions de watts se transforment rapidement en centaines de millions de dollars de frais de fonctionnement annuels.
Le modèle "iCloud" appliqué à l'IA ?
Pour rentrer dans ses frais, Apple pourrait s'inspirer de ce qu'elle fait déjà avec iCloud. On imagine assez bien un système à deux vitesses :
- Une version gratuite : Capable de répondre aux requêtes basiques, de rédiger des mails ou de contrôler l'iPhone.
- Une version "Siri Pro" : Facturée autour de 20 € par mois (le tarif standard du marché), offrant des capacités de raisonnement supérieures, une analyse de documents longs et des fonctions de code avancées.
C’est précisément la stratégie de Google avec Gemini Advanced. Apple a l'habitude de proposer un "ticket d'entrée" gratuit (les 5 Go d'iCloud) pour inciter les utilisateurs à basculer ensuite vers un forfait payant.
Toutefois, Apple pourrait jouer la montre. Pour déloger les utilisateurs déjà abonnés à ChatGPT, Claude ou Perplexity, la Pomme pourrait décider d'offrir son chatbot pendant un an ou deux. Un investissement massif pour s'imposer comme l'acteur central de l'IA grand public, avant de fermer progressivement le robinet de la gratuité.












