OpenAI recherche un nouveau responsable de la préparation aux situations d' urgence

L' influence des chatbots d'IA générative sur la santé mentale fait l'objet d' une attention croissante , comme l'a suggéré Altman dans son article.

OpenAI recherche un nouveau responsable de la préparation aux situations d' urgence
Points forts
  • OpenAI recrute pour gérer les risques de l’IA
  • La cybersécurité et la santé mentale sont prioritaires
  • L’impact des chatbots est étroitement surveillé
Publicité

OpenAI recherche un nouveau PDG qui sera chargé de mener des recherches sur les nouveaux risques liés à l'IA dans des domaines tels que la sécurité informatique et la santé mentale .
Les modèles d'IA « commencent à poser de réels défis », notamment « l' impact potentiel des modèles sur la santé mentale » et les modèles « si performants en matière de sécurité informatique qu'ils commencent à découvrir des vulnérabilités critiques », selon un message publié par Sam Altman , PDG de X.Selon l' offre d'emploi d'OpenAI , le poste de responsable de la préparation consiste à mettre en œuvre le cadre de préparation de l'organisation , qui est « notre cadre expliquant l'approche d'OpenAI en matière de suivi et de préparation aux capacités de pointe qui créent de nouveaux risques de dommages graves ».


En 2023, la société a annoncé la création d' une équipe de préparation, précisant qu'elle serait chargée d' étudier les risques potentiels « catastrophiques » , qu'ils soient plus hypothétiques , comme les menaces nucléaires , ou plus urgents, comme les attaques de phishing .


Aleksander Madry, responsable de la préparation aux situations d'urgence chez OpenAI, a été muté à un poste axé sur le raisonnement en intelligence artificielle moins d' un an plus tard. D'autres responsables de la sécurité chez OpenAI ont soit quitté l' entreprise , soit occupé des postes sans lien avec la sécurité et la préparation aux situations d'urgence.


Par ailleurs, l' entreprise a récemment modifié son cadre de préparation , précisant que si un laboratoire d'IA concurrent produit un modèle « à haut risque » sans garanties comparables , elle pourrait « ajuster » ses propres exigences de sécurité .


L' influence des chatbots d'IA générative sur la santé mentale fait l'objet d' une attention croissante , comme l'a suggéré Altman dans son article. Selon des plaintes récentes , ChatGPT d'OpenAI aurait aggravé l'isolement social des utilisateurs , renforcé leurs idées délirantes et même poussé certains d'entre eux au suicide . (L' entreprise a déclaré qu'elle travaillait toujours à améliorer la capacité de ChatGPT à identifier les signes de détresse émotionnelle et à orienter les utilisateurs vers un soutien adapté .)


 

Publicité

Publicité

© Copyright Red Pixels Ventures Limited 2025. All rights reserved.
Trending Products »
Latest Tech News »