Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 976: AI-Generated OB-GYN Health Influencers on TikTok Used Fake Medical Credentials to Promote Dubious Advice

Description: AI-generated avatars posing as OB-GYNs on TikTok, part of the so-called, crudely termed "Coochie Doctor" trend, have been falsely claiming years of experience while promoting dubious health advice. Many, including an avatar named "Violet," were created using the Captions app, which generates scripted AI influencers.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Captions developed an AI system deployed by Unknown TikTok users, which harmed TikTok users.
Systèmes d'IA présumés impliqués: TikTok et Captions AI

Statistiques d'incidents

ID
976
Nombre de rapports
5
Date de l'incident
2025-03-08
Editeurs

Rapports d'incidents

Chronologie du rapport

Des « médecins » générés par l'IA escroquent TikTok avec de fausses informations d'identification et de mauvais conseils+1
Des « médecins » générés par l’IA trompent les utilisateurs de TikTok avec de faux conseils médicaux — voici comment repérer une fraude « horrible »
+2
J’ai fait confiance aux conseils de santé… L’identité d’une femme ayant plus de 10 ans d’expérience en tant que médecin est « choquante »
Des « médecins » générés par l'IA escroquent TikTok avec de fausses informations d'identification et de mauvais conseils

Des « médecins » générés par l'IA escroquent TikTok avec de fausses informations d'identification et de mauvais conseils

dailydot.com

Des « médecins » générés par l’IA trompent les utilisateurs de TikTok avec de faux conseils médicaux — voici comment repérer une fraude « horrible »

Des « médecins » générés par l’IA trompent les utilisateurs de TikTok avec de faux conseils médicaux — voici comment repérer une fraude « horrible »

nypost.com

Des « médecins » générés par l'IA partagent de fausses informations d'identification et des conseils douteux sur TikTok

Des « médecins » générés par l'IA partagent de fausses informations d'identification et des conseils douteux sur TikTok

indy100.com

J’ai fait confiance aux conseils de santé… L’identité d’une femme ayant plus de 10 ans d’expérience en tant que médecin est « choquante »

J’ai fait confiance aux conseils de santé… L’identité d’une femme ayant plus de 10 ans d’expérience en tant que médecin est « choquante »

mk.co.kr

Avertissement concernant une tendance « horrible » de l’IA qui devient de plus en plus courante

Avertissement concernant une tendance « horrible » de l’IA qui devient de plus en plus courante

news.com.au

Des « médecins » générés par l'IA escroquent TikTok avec de fausses informations d'identification et de mauvais conseils
dailydot.com · 2025
Traduit par IA

Les créateurs d'IA sur TikTok atteignent des sommets en matière de spam avec une application appelée Captions, qui produit des tonnes de faux « médecins de chatte ». Depuis fin 2024, ces « créateurs » artificiels revendiquent « 13 ans d'exp…

Des « médecins » générés par l’IA trompent les utilisateurs de TikTok avec de faux conseils médicaux — voici comment repérer une fraude « horrible »
nypost.com · 2025
Traduit par IA

Une pomme par jour éloigne-t-elle l'IA ?

Des créateurs dénoncent les prétendus médecins deepfakes qui escroquent les utilisateurs des réseaux sociaux avec des conseils médicaux infondés.

Sur TikTok, une recherche donne accès à des dizaines …

Des « médecins » générés par l'IA partagent de fausses informations d'identification et des conseils douteux sur TikTok
indy100.com · 2025
Traduit par IA

Alors que l'intelligence artificielle évolue rapidement, distinguer le vrai du faux en ligne devient de plus en plus difficile.

Au départ, les deepfakes ont suscité des inquiétudes quant à la désinformation et aux intentions malveillantes. …

J’ai fait confiance aux conseils de santé… L’identité d’une femme ayant plus de 10 ans d’expérience en tant que médecin est « choquante »
mk.co.kr · 2025
Traduit par IA

Un médecin, populaire en tant qu'influenceur en matière de conseils de santé sur la plateforme vidéo chinoise TikTok, s'est révélé être un avatar créé à l'aide de l'intelligence artificielle (IA).

Le quotidien britannique The Independent a …

Avertissement concernant une tendance « horrible » de l’IA qui devient de plus en plus courante
news.com.au · 2025
Traduit par IA

Des experts mettent en garde contre les « médecins deepfake » après qu'une série de vidéos contenant des conseils médicaux infondés a inondé les réseaux sociaux.

Certains de ces soi-disant « médecins » se prétendent experts dans d'autres do…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Student-Developed Facial Recognition App Raised Ethical Concerns

AI Incident Database Incidents Converted to Issues

Oct 2021 · 1 rapport
Bad AI-Written Christmas Carols

AI Incident Database Incidents Converted to Issues

Dec 2017 · 1 rapport
YouTube’s Recommendation Algorithm Allegedly Promoted Climate Misinformation Content

Why is YouTube Broadcasting Climate Misinformation to Millions?

Feb 2019 · 2 rapports
Incident précédentProchain incident

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Student-Developed Facial Recognition App Raised Ethical Concerns

AI Incident Database Incidents Converted to Issues

Oct 2021 · 1 rapport
Bad AI-Written Christmas Carols

AI Incident Database Incidents Converted to Issues

Dec 2017 · 1 rapport
YouTube’s Recommendation Algorithm Allegedly Promoted Climate Misinformation Content

Why is YouTube Broadcasting Climate Misinformation to Millions?

Feb 2019 · 2 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2023 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 30ebe76