Couche de confiance AI : Comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA
Récemment, le réseau Mira a officiellement lancé son réseau de test public. Ce projet vise à construire une couche de confiance pour l'IA, afin de résoudre les problèmes de biais et d'"hallucinations" présents dans les systèmes d'IA. Alors, pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, le problème des "hallucinations" ou des biais de l'IA est souvent négligé. Ce que l'on appelle les "hallucinations" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses, en racontant des absurdités avec un sérieux apparent. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une série d'explications qui semblent raisonnables mais qui sont en réalité infondées.
L'apparition de "hallucinations" ou de biais par l'IA est liée à certaines des voies technologiques actuelles de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais elle peut parfois ne pas être en mesure de vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais, voire du contenu fictif, ce qui peut également affecter la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains plutôt que des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle basé sur les données conduisent presque inévitablement à des "hallucinations" de l'IA. Si cette sortie biaisée ou hallucinée se limite à des connaissances générales ou à un contenu de divertissement, cela peut temporairement ne pas avoir de conséquences directes. Mais si cela se produit dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance, cela pourrait avoir des impacts significatifs. Ainsi, résoudre les problèmes d'hallucination et de biais de l'IA devient l'une des questions centrales dans le processus de développement de l'IA.
Le projet Mira tente de résoudre ce problème en construisant une couche de confiance pour l'IA, améliorant ainsi la fiabilité de l'IA. Alors, comment Mira réduit-elle les biais et les hallucinations de l'IA et parvient-elle finalement à réaliser une IA de confiance ?
La philosophie fondamentale de Mira est de valider les sorties d'IA par le consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui garantit la fiabilité des sorties d'IA grâce à une validation par consensus décentralisé. Cette approche combine les avantages de la validation par consensus décentralisé, qui est bien maîtrisée dans le domaine de la cryptographie, et la collaboration entre plusieurs modèles, afin de réduire les biais et les illusions grâce à un mode de validation collectif.
En ce qui concerne l'architecture de vérification, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de vérification indépendantes. Les opérateurs de nœuds participent à la vérification de ces déclarations, en s'assurant d'un comportement honnête grâce à des incitations et des mécanismes de punition économiques basés sur la cryptographie. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de vérification.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en déclarations vérifiables, puis les distribue aux nœuds pour validation. Les nœuds déterminent la validité des déclarations et agrègent les résultats pour parvenir à un consensus. Pour protéger la vie privée des clients, les déclarations seront distribuées de manière aléatoire en fragments à différents nœuds.
Les opérateurs de nœuds obtiennent des revenus en exécutant des modèles de validateurs, en traitant des déclarations et en soumettant des résultats de validation. Ces revenus proviennent de la valeur créée pour les clients, c'est-à-dire de la réduction du taux d'erreur de l'IA dans des domaines critiques. Pour éviter que les nœuds ne répondent de manière aléatoire, les nœuds qui s'éloignent continuellement du consensus seront pénalisés.
Dans l'ensemble, Mira propose une nouvelle approche en construisant un réseau de validation de consensus décentralisé, offrant une plus grande fiabilité aux services d'IA de ses clients. Elle cherche à devenir une couche de confiance pour l'IA, favorisant le développement approfondi des applications d'IA.
Actuellement, Mira a établi des partenariats avec plusieurs frameworks d'agents IA. Les utilisateurs peuvent participer au réseau de test public via Klok (une application de chat LLM basée sur Mira), expérimenter des sorties IA vérifiées et avoir la possibilité de gagner des points Mira.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
6
Partager
Commentaire
0/400
DuckFluff
· Il y a 22h
Comment dire une illusion ? C'est juste que l'IA raconte n'importe quoi.
Voir l'originalRépondre0
Lonely_Validator
· Il y a 22h
Encore une fois, on se fait prendre pour des cons.
Voir l'originalRépondre0
SeeYouInFourYears
· Il y a 22h
J'ai souvent vu des fabrications d'IA.
Voir l'originalRépondre0
OnchainUndercover
· Il y a 22h
Demander c'est que les grands modèles de langage racontent des histoires.
Lancement de la phase de test public du réseau Mira : La couche de confiance AI peut-elle résoudre le problème du biais d'illusion ?
Couche de confiance AI : Comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA
Récemment, le réseau Mira a officiellement lancé son réseau de test public. Ce projet vise à construire une couche de confiance pour l'IA, afin de résoudre les problèmes de biais et d'"hallucinations" présents dans les systèmes d'IA. Alors, pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, le problème des "hallucinations" ou des biais de l'IA est souvent négligé. Ce que l'on appelle les "hallucinations" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses, en racontant des absurdités avec un sérieux apparent. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une série d'explications qui semblent raisonnables mais qui sont en réalité infondées.
L'apparition de "hallucinations" ou de biais par l'IA est liée à certaines des voies technologiques actuelles de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais elle peut parfois ne pas être en mesure de vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais, voire du contenu fictif, ce qui peut également affecter la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains plutôt que des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle basé sur les données conduisent presque inévitablement à des "hallucinations" de l'IA. Si cette sortie biaisée ou hallucinée se limite à des connaissances générales ou à un contenu de divertissement, cela peut temporairement ne pas avoir de conséquences directes. Mais si cela se produit dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance, cela pourrait avoir des impacts significatifs. Ainsi, résoudre les problèmes d'hallucination et de biais de l'IA devient l'une des questions centrales dans le processus de développement de l'IA.
Le projet Mira tente de résoudre ce problème en construisant une couche de confiance pour l'IA, améliorant ainsi la fiabilité de l'IA. Alors, comment Mira réduit-elle les biais et les hallucinations de l'IA et parvient-elle finalement à réaliser une IA de confiance ?
La philosophie fondamentale de Mira est de valider les sorties d'IA par le consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui garantit la fiabilité des sorties d'IA grâce à une validation par consensus décentralisé. Cette approche combine les avantages de la validation par consensus décentralisé, qui est bien maîtrisée dans le domaine de la cryptographie, et la collaboration entre plusieurs modèles, afin de réduire les biais et les illusions grâce à un mode de validation collectif.
En ce qui concerne l'architecture de vérification, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de vérification indépendantes. Les opérateurs de nœuds participent à la vérification de ces déclarations, en s'assurant d'un comportement honnête grâce à des incitations et des mécanismes de punition économiques basés sur la cryptographie. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de vérification.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et le mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en déclarations vérifiables, puis les distribue aux nœuds pour validation. Les nœuds déterminent la validité des déclarations et agrègent les résultats pour parvenir à un consensus. Pour protéger la vie privée des clients, les déclarations seront distribuées de manière aléatoire en fragments à différents nœuds.
Les opérateurs de nœuds obtiennent des revenus en exécutant des modèles de validateurs, en traitant des déclarations et en soumettant des résultats de validation. Ces revenus proviennent de la valeur créée pour les clients, c'est-à-dire de la réduction du taux d'erreur de l'IA dans des domaines critiques. Pour éviter que les nœuds ne répondent de manière aléatoire, les nœuds qui s'éloignent continuellement du consensus seront pénalisés.
Dans l'ensemble, Mira propose une nouvelle approche en construisant un réseau de validation de consensus décentralisé, offrant une plus grande fiabilité aux services d'IA de ses clients. Elle cherche à devenir une couche de confiance pour l'IA, favorisant le développement approfondi des applications d'IA.
Actuellement, Mira a établi des partenariats avec plusieurs frameworks d'agents IA. Les utilisateurs peuvent participer au réseau de test public via Klok (une application de chat LLM basée sur Mira), expérimenter des sorties IA vérifiées et avoir la possibilité de gagner des points Mira.