
Pour qui sont-ils? Delphi, une startup qui a récemment recueilli 16 millions de dollars auprès de bailleurs de fonds, dont la société de capital-risque d’anthropique et acteur / directrice d’Olivia Wilde, aide les personnes célèbres à créer des répliques qui peuvent parler avec leurs fans dans les appels de chat et vocaux. Il ressemble à Masterclass – la plate-forme pour les séminaires pédagogiques dirigés par des célébrités – vont dans l’ère de l’IA. Sur son site Web, Delphi écrit que les dirigeants modernes «possèdent des connaissances et de la sagesse potentiellement qui changent la vie, mais leur temps est limité et l’accès est contraint.»
Il dispose d’une bibliothèque de clones officiels créés par des figures célèbres avec lesquelles vous pouvez parler. Arnold Schwarzenegger, par exemple, m’a dit: «Je suis ici pour couper la merde et vous aider à devenir plus fort et plus heureux», avant de m’informer gaiement que j’ai maintenant été inscrit pour recevoir le Arnold’s Pump Club bulletin. Même si ses clones de célébrités ou d’autres sont en deçà de la noble de Delphi vision D’après la propagation de la «sagesse personnalisée à grande échelle», ils semblent au moins servir d’entonnoir pour trouver des fans, construire des listes de diffusion ou vendre des suppléments.
Mais qu’en est-il pour le reste d’entre nous? Les clones bien conçus pourraient-ils servir de stand-in? Je me sens certainement étiré mince au travail parfois, souhaitant pouvoir être à deux endroits à la fois, et je parie que vous aussi. Je pouvais voir une réplique apparaître dans une réunion virtuelle avec un représentant des relations publiques, pour ne pas les inciter à penser que c’est le vrai moi, mais simplement pour prendre un bref appel en mon nom. Un enregistrement de cet appel pourrait résumer comment il s’est passé.
Pour le savoir, j’ai essayé de faire un clone. Tavus, un ancien élève du combinateur qui a levé 18 millions de dollars l’année dernière, construira un avatar vidéo de vous (les plans commencent à 59 $ par mois) qui peuvent être coachés pour refléter votre personnalité et peuvent rejoindre des appels vidéo. Ces clones ont «l’intelligence émotionnelle des humains, avec la portée des machines», selon la société. «Assistant du journaliste» n’apparaît pas sur le site de l’entreprise comme un exemple de cas d’utilisation, mais il mentionne les thérapeutes, les assistants des médecins et d’autres rôles qui pourraient bénéficier d’un clone d’IA.
Pour le processus d’intégration de Tavus, j’ai allumé mon appareil photo, lu un script pour l’aider à apprendre ma voix (qui a également agi comme une renonciation, avec moi acceptant de prêter mon ressemblance à Tavus), et j’ai enregistré une minute de moi juste assis en silence. En quelques heures, mon avatar était prêt. En rencontrant ce numérique, j’ai trouvé qu’il avait l’air et parlait comme je le fais (bien que je détestais ses dents). Mais truquer mon apparence était la partie facile. Cela pourrait-il en apprendre suffisamment sur moi et quels sujets je couvrent pour servir de remplaçant avec un risque minimal de m’embarrasser?
Via une interface de chatbot utile, Tavus m’a parcouru comment élaborer la personnalité de mon clone, en demandant ce que je voulais que la réplique fasse. Cela m’a ensuite aidé à formuler des instructions qui sont devenues son manuel d’exploitation. J’ai téléchargé trois douzaines de mes histoires qu’il pourrait utiliser pour référencer ce que je couvre. Cela a peut-être profité de la plupart de mon contenu – des interviews, des notes de rapport, etc. – mais je ne partagerais jamais ces données pour une multitude de raisons, dont la moindre étant que les autres personnes qui y apparaissent n’ont pas consenti à leurs côtés de nos conversations utilisées pour former une réplique d’IA.
Donc, dans le domaine de l’IA – où les modèles apprennent des bibliothèques entières de données – je n’ai pas donné beaucoup à mon clone, mais j’espérais toujours qu’il en avait assez pour être utile.
Hélas, c’était un joker. Il a agi trop excité par les terrains d’histoire que je ne poursuivrais jamais. Il s’est répété, et il n’arrêtait pas de dire qu’il vérifiait mon emploi du temps pour organiser une réunion avec le Real Me, ce qu’il ne pouvait pas faire car je ne lui ai jamais donné accès à mon calendrier. Il a parlé en boucles, sans aucun moyen que la personne à l’autre bout termine la conversation.