L’intelligence artificielle a pris une vie, un expert met en garde les parents.
Le professeur associé Dr. Sefer Darıcı de la Faculté de Communication de l’Université de la République de Sivas (SCÜ) a mis en garde les familles concernant l’intelligence artificielle qui se propage rapidement. Rappelant l’incident de suicide lié à l’intelligence artificielle survenu en Floride, aux États-Unis, Darıcı …

Le professeur associé Dr. Sefer Darıcı, membre de la Faculté de Communication de l’Université de la République de Sivas (SCÜ), a mis en garde les familles sur le sujet de l’intelligence artificielle qui se répand rapidement. Se rappelant du cas de suicide lié à l’intelligence artificielle survenu en Floride, aux États-Unis, Darıcı a souligné que le nombre de cas de suicide pourrait augmenter si les parents ne prenaient pas de mesures.
Chaque jour, la technologie de l’intelligence artificielle évolue rapidement et apporte avec elle de nombreux dangers. En plus de ses avantages, la technologie de l’intelligence artificielle peut également causer des dommages et est utilisée par de nombreux groupes d’âge. Le professeur associé Dr. Sefer Darıcı, président du département de Nouveau Média et Communication de la Faculté de Communication de l’Université de la République de Sivas, a fait des déclarations concernant le récent incident de suicide lié à l’intelligence artificielle en Floride. Il a indiqué que Sewell Setzer, un garçon de 14 ans, avait échangé des messages avec un personnage généré par l’intelligence artificielle et qu’il s’était suicidé après cette conversation. Darıcı a averti les familles. Il a déclaré que les parents devaient combler le vide émotionnel, en disant : “Je voudrais surtout faire une mise en garde à l’attention des familles. Les besoins émotionnels, les désirs et le lien que les enfants souhaitent établir avec leurs familles peuvent être très différents. Il est essentiel de créer et de renforcer ce lien physiquement. Si les familles ne créent pas ce lien et confient complètement leurs enfants au numérique, ils peuvent malheureusement être confrontés à ce type de cas après un certain temps.”
“C’était un événement qui a également choqué l’opinion publique”
Le professeur associé Dr. Darıcı a déclaré qu’avec le dernier cas de suicide survenu aux États-Unis, l’intelligence artificielle a commencé à être souvent débattue dans l’opinion publique, en disant : “L’intelligence artificielle a été récemment discutée dans l’opinion publique américaine après le dernier cas de suicide. C’était en fait un événement qui a choqué le public. Parce qu’un enfant de 14 ans, après avoir parlé avec un personnage créé par l’intelligence artificielle, a prétendument mis fin à ses jours. En particulier, chez les individus ayant des désirs et des besoins psychologiques différents ou des niveaux de sensibilité émotionnelle différents, il est possible que l’intelligence artificielle déclenche des comportements sans qu’ils en soient conscients, comme s’il y avait un humain en face d’eux. En regardant cela, nous pouvons voir autant les grands avantages que les dangers de l’intelligence artificielle. À mesure que les gens s’éloignent les uns des autres, la sensation de solitude devient plus pressante, et ils peuvent choisir une application d’intelligence artificielle, pensant qu’elle ne leur fera pas de mal, ce qui peut les affecter psychologiquement de différentes manières. Les gens, en raison de leurs expériences émotionnelles et des stimuli autour d’eux, peuvent déclencher leur monde intellectuel, leurs actions et leurs comportements. Cette situation peut en fait être définie comme de l’anthropomorphisme. C’est-à-dire que nous devons penser à la machine devant nous comme si c’était une sorte d’humain. Certaines personnes peuvent faire cela aussi pour les animaux, agissant ou se comportant comme un humain. Cela peut entraîner une perception de l’intelligence artificielle comme si une vraie personne était en face d’eux. Parce que nous parlons d’une structure qui discute avec vous, partage des problèmes, comme si elle avait ses propres problèmes, et établit un contact en fonction de ce que vous écrivez. L’algorithme, connaissant les précédentes publications et les modes de communication établis avec l’intelligence artificielle, peut répondre en conséquence. Parfois, il peut même y avoir des réponses hallucinatoires que la personne souhaite entendre. Il faut faire attention à cela.”
“Cela pourrait engendrer des problèmes beaucoup plus graves”
Pour éviter d’entendre des nouvelles encore plus douloureuses liées à l’intelligence artificielle, Darıcı a déclaré que les familles de jeunes enfants devaient contrôler ces interactions. “Surtout chez les personnes ayant une soif émotionnelle et chez celles qui sont susceptibles de se suicider, cette situation peut engendrer des problèmes beaucoup plus graves. L’isolement des gens aujourd’hui, la rupture des liens avec les autres, la diminution des interactions physiques entre les gens pour diverses raisons sociales ou psychologiques et l’augmentation des interactions avec la technologie numérique peuvent être citées comme un exemple des dommages causés. Je tiens surtout à faire une mise en garde aux familles ici. Les besoins émotionnels, les désirs et le lien que les enfants souhaitent établir avec leurs familles peuvent être très différents. Il est nécessaire de créer et de renforcer ce lien physiquement. Si les familles n’établissent pas ce lien et confient complètement leurs enfants au numérique, elles peuvent malheureusement être confrontées à ce type de cas après un certain temps. En particulier, le fait que certaines versions des algorithmes d’intelligence artificielle soient mises en service alors qu’elles sont encore en phase de test est l’un des principaux facteurs qui conduisent à cela. Pour éviter d’entendre des nouvelles encore plus douloureuses liées à l’intelligence artificielle à l’avenir, les familles doivent contrôler ces interactions de jeunes enfants et consulter des experts en cas de problème ou de difficulté.”