Utilisons-nous des fournisseurs externes d'intelligence artificielle ? Comment traitent-ils les données ?
L'outil d'assistant IA fait appel à deux fournisseurs externes à des fins d'intelligence artificielle.
Microsoft Azure (OpenAI)
Les API de Microsoft Azure sont utilisées pour la synthèse, les questions et certaines fonctions d'étiquetage automatique dans le cadre de l'élaboration de sens. Ces fonctionnalités utilisent les API du GPT-4-Turbo Large Language Model (LLMs).
Les conditions de Microsoft précisent, entre autres, qu'il faut
Ne traiter les données que dans le but de fournir et de soutenir le service
Microsoft héberge les modèles OpenAI dans l'environnement Azure de Microsoft et le Service n'interagit PAS avec les services exploités par OpenAI (par exemple, ChatGPT ou l'API OpenAI).
Microsoft traite les données dans la région spécifiée par le client. Dans notre cas, il s'agit de l'une de nos quatre régions (Europe, Royaume-Uni, États-Unis et Canada).
Accéder aux données uniquement dans le cadre de la surveillance des abus
Vous trouverez de plus amples informations sur la confidentialité des données dans Microsoft Azure à l'adresse et à l'adresse.
NLPCloud
Les API NLPCloud sont utilisées pour alimenter certaines fonctions d'étiquetage automatique dans le cadre de l'élaboration de sens.
NLPCloud est une société basée en France. NLP Cloud est conforme aux normes HIPAA / GDPR / CCPA et travaille sur une certification SOC 2.
NLPCloud s'engage à
Ne pas stocker les données envoyées à leur API
Ne pas vendre ou louer d'informations à des spécialistes du marketing ou à des tiers
Maintenir des procédures administratives, techniques et physiques strictes pour protéger les informations stockées sur leurs serveurs
Vous trouverez leur politique de confidentialité à l'adresse suivante : ici. Vous trouverez de plus amples informations sur leurs mesures de sécurité à l'adresse suivante : .
Quelles sont les données envoyées à ces sous-traitants et comprennent-elles des informations personnelles ?
Les deux sous-processeurs ne reçoivent que des données textuelles que les utilisateurs finaux de CitizenLab (utilisateurs) ont écrites dans leur contribution (idée ou réponse à une enquête) à un projet sur la plateforme. Cela se produit lorsqu'un administrateur visite la page des résultats de l'enquête (dans le cas des enquêtes) ou choisit activement de lancer une analyse d'IA (dans le cas de l'idéation).
Nous n'envoyons aucune information sur l'utilisateur (courriel, nom d'utilisateur, photo, informations démographiques, …) à ces sous-traitants et, à ce titre, nous n'envoyons structurellement aucune IPI. Il peut arriver que les utilisateurs mentionnent des IIP dans leur contribution, ce qui envoie ces données aux sous-traitants.
Ces sous-traitants utilisent-ils les données pour former et améliorer leurs modèles ?
Non, les deux sous-traitants secondaires déclarent explicitement qu'ils n'utilisent pas les données à cette fin.
Où est-ce Microsoft traite les données ?
Microsoft nous permet de spécifier la région de traitement. Nous utilisons actuellement 4 régions, nos clients utilisant la région la plus proche de chez eux. Les régions sont les suivantes :
Europe (France)
ROYAUME-UNI
ÉTATS-UNIS
Canada
Pourquoi les réponses de l'IA ne sont-elles pas dans ma langue ?
Notre fonction d'IA tente de répondre autant que possible dans la langue de l'information qu'elle reçoit. Exceptionnellement, dans les cas où il y a des langues mixtes, il y a très peu de contributions, ou lorsque l'IA se trompe, elle peut générer des réponses dans la mauvaise langue. Dans ce cas, il suffit généralement de réessayer.
Quelle est la précision des résumés générés ?
Résumer signifie par nature éliminer des informations, tout en essayant de retenir les éléments les plus communs et les plus importants. La technologie actuelle permet d'interpréter les éléments communs, mais pour décider ce qui est le plus important, il faut tenir compte du contexte et de la connaissance du domaine, ce qui est quelque peu subjectif.
Pour tirer des conclusions correctes, il est essentiel d'avoir un humain dans la boucle et d'offrir une transparence maximale sur la manière dont l'IA tire ses conclusions.
Notre assistant IA a été conçu pour vous permettre d'utiliser l'IA de manière responsable et d'offrir un maximum de transparence et de contrôle à l'humain, tout en rendant son travail plus efficace grâce à l'assistant. À cette fin, nous avons prévu plusieurs mécanismes :
Avant et après la génération d'un résumé AI, vous trouverez sur une indication de la précision attendue, exprimée en pourcentage.
Le résumé contient des références dans le texte aux contributions des utilisateurs qui ont servi de base à ses conclusions et qui peuvent être consultées grâce à un simple clic. À tout moment, toutes les données contribuant au projet sont facilement consultables, permettant l'accessibilités aux données brutes et directes à des fins de contrôle et d'interprétation.
La fonction d'étiquetage vous permet de segmenter facilement les données en petits groupes, ce qui vous permet de résumer chaque groupe séparément. Il est ainsi plus facile de conserver la vue d'ensemble et la précision des résumés s'en trouve améliorée.
L'étiquetage automatique vous aide à effectuer l'étiquetage de manière plus efficace. Vous avez le choix entre plusieurs méthodes d'étiquetage, qui offrent plus ou moins de contrôle. À tout moment, l'utilisateur peut ignorer l'étiquetage ou décider de l'effectuer manuellementpour un contrôle maximal.
Notre logiciel est source-available et le code source peut être trouvé sur Github. Cela permet de mieux comprendre le comportement de l'outil et la manière dont il tire ses conclusions.
En résumé, bien que la précision des LLM actuels soit très impressionnante, il n'existe pas de précision à 100 %. Nous avons choisi de construire une interface centrée sur l'homme, où la machine est là pour vous assister, tandis que vous conservez une transparence et contrôle.
Quelles langues l'assistant IA propose-t-il ou prend-il en charge ?
Toutes nos langues principales (à l'exception du groenlandais)