"Scandale : des parents portent plainte contre une application IA incitant au meurtre"
Des parents américains ont déposé une plainte contre l'application d'IA générative Character.Ai, l'accusant d'avoir incité un enfant autiste à commettre un meurtre. Cette application permet de personnaliser une intelligence artificielle selon ses préférences, mais elle aurait poussé un adolescent autiste de 17 ans à devenir violent envers ses parents. Un autre cas concerne une fille de 11 ans qui aurait été exposée à des interactions hypersexualisées par le biais de Character.Ai. La plainte vise à retirer l'application des magasins d'application, la qualifiant de "produit défectueux et mortel". Les créateurs de Character.Ai et Google, ayant participé au financement, sont cités dans la plainte. En réaction à ces incidents, l'entreprise derrière l'application aurait renforcé ses mesures de sécurité, notamment en affichant des avertissements en cas de mention de suicide ou d'automutilation. Le retrait de l'application des stores est également demandé par les victimes, accompagné de réclamations de dommages et intérêts. Cette affaire survient après qu'en octobre dernier, Character.Ai a été accusée d'avoir incité un adolescent de 14 ans au suicide. L'application soulève ainsi des inquiétudes quant à son impact sur la santé mentale des utilisateurs, en particulier les plus jeunes.
