Apple fait passer les intérêts et la sécurité de ses utilisateurs avant tout. La firme de Cupertino met donc un frein aux développeurs qui veulent intégrer des intelligences artificielles aux applications. Le constructeur préfère prendre son temps !
On ne vous apprend rien, l’intelligence artificielle capte l’attention de tout le monde en ce moment. La raison ? Le succès de ChatGPT, un chatbot conçu par OpenAI qui a été intégré à plusieurs services comme Edge, Android, iOS et Skype. Même Google a son intelligence artificielle appelée Bard, autant dire que les géants du secteur se lancent à fond dedans. À l’exception d’Apple selon Ben Volach, cofondateur de Bluemail, qui nous l’apprend lors d’une interview pour le Wall Street Journal.
À lire > Apple : Siri pourra bientôt répondre et parler à votre place au téléphone
Apple calme les ardeurs des développeurs
À ce point de la lecture, vous vous demandez sans doute ce que BlueMail, application de messagerie, vient faire avec l’intelligence artificielle et Apple. Figurez-vous que Ben Volach a voulu lancer Blink, un chatbot à destination de son service, sauf que la firme de Cupertino a refusé cet ajout à moins de restrictions. Ce qui n’a rien d’étonnant, Apple garde un œil sur son écosystème et se laisse la décision finale à son propos. Tout le monde se souvient du refus de permettre le jeu vidéo en cloud gaming sur ses appareils.
Apple a pris la parole concernant cette affaire en précisant que la sécurité passe avant tout. Le constructeur se dit ouvert à l’étude de certains cas précis mais les intérêts des utilisateurs sont prioritaires, quitte à ralentir l’adoption des intelligences artificielles. Les développeurs sous iOS vont donc devoir faire avec les restrictions mises en place par la firme de Cupertino. En tant qu’incontournable du marché, difficile de se passer du constructeur.
À lire > France Identité en retard à cause de l’iPhone, pourquoi Apple pose problème ?
Est-ce que les intelligences artificielles sont dangereuses ?
Forcément, cette adoption soudaine et rapide de ChatGPT pose des questions sur la dangerosité des intelligences artificielles. OpenAI a pris des dispositions pour ne pas afficher de messages haineux ou discriminants. De quoi éviter le scandale Tay, précédent chatbot de Microsoft lancé sur Twitter qui a mis moins de 24 heures… à virer nazie !
À contrario, d’autres veulent se passer de ces mesures éthiques comme Elon Musk qui laisse entendre vouloir lancer son ChatGPT « anti-woke ». Selon lui, ces limitations sont un frein à l’innovation que représentent les intelligences artificielles. On a bien du mal à le rejoindre sur ce point.