Dans sa communication, OpenAI rappelle que « la santé est déjà l’un des usages les plus courants de ChatGPT, avec des centaines de millions de personnes qui posent chaque semaine des questions liées à la santé et au bien-être », plus exactement 230 millions de requêtes chaque semaine.
Sa nouvelle application s’appuie donc sur cette expérience, renforcée par des « protections supplémentaires spécifiquement pensées pour la santé, notamment un chiffrement dédié et une isolation renforcée afin de préserver la confidentialité et le cloisonnement des conversations de santé ».
En pratique
Dans son communiqué, l’entreprise donne quelques exemples d’applications concrètes. ChatGPT Health peut « connecter en toute sécurité les dossiers médicaux et les applications de bien-être afin d’ancrer les conversations dans vos propres données de santé ».
ChatGPT Santé devrait aider à « comprendre vos résultats d’analyses récents, à préparer des rendez-vous médicaux, à aborder votre alimentation et votre routine sportive, ou à comparer différentes options d’assurance santé selon vos habitudes de soins ».
OpenAI précise néanmoins que « ChatGPT Santé est conçu pour soutenir les soins médicaux, et non pour les remplacer. La fonctionnalité n’a pas vocation à établir un diagnostic ni à proposer un traitement ». Les conversations dans ChatGPT Santé ne sont pas utilisées pour entraîner les modèles fondamentaux de l’application, assure OpenAI.
Utilisateurs pilotes
Dans un premier temps, l’application ne sera disponible que pour un « petit groupe d’utilisateurs pilotes » avant d’élargir « l’accès et de rendre ChatGPT Santé disponible pour l’ensemble des utilisateurs sur le web et iOS dans les prochaines semaines ». Quant à l’intégration avec les dossiers médicaux, cela n’est possible qu’aux États-Unis.
Si les conversations santé sont compartimentées dans un espace protégé, ChatGPT Santé peut les enrichir en s’appuyant sur « le contexte de vos conversations hors ChatGPT Santé, comme un déménagement récent ou un changement de mode de vie, afin de rendre une discussion de santé plus pertinente. En revanche, les informations et mémoires de santé ne sont jamais réinjectées dans vos conversations principales ».
Accès des données de santé aux médecins
Aux États-Unis, ChatGPT Santé peut donner accès aux données de santé de ses utilisateurs à des médecins via le réseau de données de santé b.well. OpenAI précise que ChatGPT Santé a été « développé en étroite collaboration avec des médecins du monde entier afin de fournir des informations de santé claires et utiles. Pendant plus de deux ans, nous avons travaillé avec plus de 260 médecins exerçant dans 60 pays et couvrant des dizaines de spécialités ». La consultation de ChatGPT Santé est conforme aux autres conversations de ChatGPT : « Les conversations dans l’expérience Santé ressemblent aux autres conversations dans ChatGPT, mais reposent sur les informations que vous avez connectées. Vous pouvez charger des photos et des fichiers, et utiliser la recherche, la recherche approfondie, le mode vocal et la dictée. »
Confidentialité des données
Première à réagir en France, l’association d’usagers de la santé France Assos Santé se demande s’il faut s’inquiéter : « Faut-il s’alarmer ? ChatGPT Health n’est pour l’instant qu’à l’état de test et non disponible en Europe, où son modèle d’agrégateur d'informations médicales ne répond pas aux exigences de protection des données. Son arrivée soulève cependant différents enjeux pour les patients. »
Pour France assos santé « la question de la confidentialité des données se pose. Elle n’est, à ce jour, pas garantie pour les utilisateurs européens alors que les lois américaines peuvent s’appliquer sur les données des Européens ».
La deuxième interrogation de France Assos Santé a trait à la relation de soins : « Si elle peut donc faciliter l’accès à une information de santé compréhensible, les usagers ne sont pas assez sensibilisés aux risques de l’IA générative avec laquelle on peut « converser ». Quant aux professionnels de santé, ils sont de plus en plus méfiants. »
France Assos Santé plaide pour « outiller les soignants et les patients pour discuter de ces informations et des biais qui découlent de l’utilisation de l’IA (fiabilité, biais, tri des sources) » tout en renforçant la décision médicale partagée. L’association pense que l’on ne peut pas arrêter le progrès, mais seulement l’accompagner : « ChatGPT Health, ou ses concurrents, ne remplaceront pas demain les médecins, mais ils permettront peut-être d’avoir des patients « augmentés par l'IA ».
L’occasion de repenser la santé, en interrogeant la place de l’humain dans nos soins pour la préserver et, qui sait, peut-être même l’augmenter, elle aussi. ». Pour le Dr Jean-Emmanuel Bibault interrogé sur France Inter, « le partage des données personnelles de santé n’est pas anodin et il faut un cadre clair et transparent sur l’usage, la protection et la réversibilité de ces données ».
Problèmes juridiques d’hébergement des données de santé
Contacté par Medscape édition française, le Dr Adrien Parrot, médecin, ingénieur et fondateur de l’association Interhop, qui met à disposition des logiciels libres et open source pour la recherche en santé, est beaucoup plus critique quant au lancement de la ChatGPT Santé, en particulier en ce qui concerne l’hébergement des données de santé : « Utiliser une société de droit français qui utilise des technologies américaines n’a pas beaucoup de sens et ne fait pas de sens en termes de protection des données », explique-t-il.
Pour Adrien Parrot, l’arrivée de ChatGPT Health en Europe (ce qui n’est pas encore effectif) devrait poser des problèmes juridiques d’hébergement des données de santé.
« Imaginons un chatbot médical se revendiquant “Made in France”, utilisant un modèle d’IA français comme Mistral, certifié HDS et conforme au RGPD. À première vue, tous les indicateurs de souveraineté semblent réunis. Pourtant, si à un moment de la chaîne de traitement - que ce soit pour l’hébergement de l’application, le stockage des données, ou l’infrastructure de calcul - les données transitent ou sont stockées sur des serveurs américains, l’ensemble de la solution devient vulnérable aux lois extraterritoriales américaines », rappelait l’association Interhop dans un article.
Et de rappeler les principes d’une application véritablement souveraine :
« Être opérée par une entreprise non soumise aux lois extraterritoriales américaines. Être hébergée sur des infrastructures européennes contrôlées par des entités européennes. Utiliser des technologies open source permettant l’audit et la maîtrise technique. Garantir juridiquement qu’aucun transfert de données ne peut avoir lieu sans accord des autorités européennes. »