Уровень доверия ИИ: Как сеть Mira решает проблемы предвзятости и иллюзий ИИ
Недавно публичная тестовая сеть Mira была официально запущена. Этот проект нацелен на создание уровня доверия для ИИ, чтобы решить проблемы предвзятости и "галлюцинаций" в системах ИИ. Так почему ИИ необходимо доверять? Как Mira решает эту проблему?
При обсуждении ИИ люди часто больше сосредотачиваются на его мощных возможностях. Однако проблемы «галлюцинаций» или предвзятости ИИ часто игнорируются. Что касается «галлюцинаций» ИИ, проще говоря, это означает, что ИИ иногда может «выдумывать» и серьезно нести чушь. Например, если вы спросите ИИ, почему луна розовая, он может дать ряд на вид разумных, но на самом деле необоснованных объяснений.
Появление "галлюцинаций" или предвзятости у ИИ связано с некоторыми текущими направлениями технологий ИИ. Генеративный ИИ достигает связности и разумности, предсказывая "наиболее вероятное" содержимое, но иногда не может проверить истинность. Кроме того, сами обучающие данные могут содержать ошибки, предвзятости или даже вымышленные материалы, что также влияет на выводы ИИ. Другими словами, ИИ учится языковым паттернам человека, а не самим фактам.
Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к тому, что ИИ производит "галлюцинации". Если такие предвзятые или иллюзорные выходные данные ограничиваются общими знаниями или развлекательным контентом, это временно может не привести к непосредственным последствиям. Но если это произойдет в таких строго регламентированных областях, как здравоохранение, право, авиация и финансы, это может иметь серьезные последствия. Поэтому решение проблем галлюцинаций и предвзятости ИИ становится одной из ключевых задач в процессе развития ИИ.
Проект Mira пытается решить эту проблему, создавая уровень доверия для ИИ, чтобы повысить его надежность. Итак, как Mira снижает предвзятость и иллюзии ИИ и в конечном итоге достигает доверенного ИИ?
Основная идея Mira заключается в верификации вывода ИИ через консенсус нескольких моделей ИИ. По сути, это сеть верификации, которая обеспечивает надежность вывода ИИ через децентрализованную верификацию консенсуса. Этот подход сочетает в себе преимущества децентрализованной верификации консенсуса, в которых преуспевает криптографическая область, и совместной работы нескольких моделей, чтобы уменьшить предвзятость и галлюцинации через коллективную верификацию.
В области проверки архитектуры протокол Mira поддерживает преобразование сложного контента в независимые проверочные утверждения. Операторы узлов участвуют в проверке этих утверждений, обеспечивая честное поведение через механизмы экономического стимула и наказания. Разные модели ИИ и децентрализованные операторы узлов совместно участвуют для обеспечения надежности результатов проверки.
Сетевая архитектура Mira включает в себя преобразование контента, распределенную проверку и механизм консенсуса. Сначала система разбивает представленные клиентом кандидатные материалы на проверяемые заявления, а затем распределяет их по узлам для проверки. Узлы определяют действительность заявлений и собирают результаты для достижения консенсуса. Чтобы защитить конфиденциальность клиентов, заявления будут распределены среди различных узлов случайным образом.
Операторы узлов получают доход, запуская модели валидации, обрабатывая заявления и подавая результаты валидации. Эти доходы происходят от ценности, созданной для клиентов, а именно снижения уровня ошибок ИИ в ключевых областях. Чтобы предотвратить случайные ответы узлов, узлы, которые постоянно отклоняются от консенсуса, будут наказаны.
В целом, Mira предлагает новый подход к решению задач, создавая децентрализованную сеть проверки консенсуса, что обеспечивает большую надежность AI-сервисов для клиентов. Она стремится стать уровнем доверия для AI, способствуя углубленному развитию AI-приложений.
В настоящее время Mira сотрудничает с несколькими фреймворками AI агент. Пользователи могут участвовать в публичной тестовой сети через Klok (приложение для чата на основе LLM от Mira), испытывать проверенные AI-выходы и иметь возможность зарабатывать очки Mira.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
23 Лайков
Награда
23
9
Репост
Поделиться
комментарий
0/400
CryptoDouble-O-Seven
· 08-09 09:08
Ну, довольно правдиво. Просто AI говорит правду, да, с самого начала.
Посмотреть ОригиналОтветить0
SchrodingersFOMO
· 08-08 13:12
Еще один проект, который лишь решает поверхностные проблемы.
Посмотреть ОригиналОтветить0
GasOptimizer
· 08-07 13:18
С точки зрения вероятности, 73,5% ответов ИИ основаны на ложной статистике.
Посмотреть ОригиналОтветить0
DuckFluff
· 08-06 12:57
Как это объяснить... Это просто AI болтает ерунду.
Посмотреть ОригиналОтветить0
Lonely_Validator
· 08-06 12:54
Снова будут играть для лохов?
Посмотреть ОригиналОтветить0
SeeYouInFourYears
· 08-06 12:52
Я много видел бессмысленных измышлений о ИИ.
Посмотреть ОригиналОтветить0
OnchainUndercover
· 08-06 12:49
Вопрос в том, что большие языковые модели рассказывают истории.
Запуск открытого тестирования сети Mira: сможет ли уровень доверия AI решить проблему иллюзорных предвзятостей?
Уровень доверия ИИ: Как сеть Mira решает проблемы предвзятости и иллюзий ИИ
Недавно публичная тестовая сеть Mira была официально запущена. Этот проект нацелен на создание уровня доверия для ИИ, чтобы решить проблемы предвзятости и "галлюцинаций" в системах ИИ. Так почему ИИ необходимо доверять? Как Mira решает эту проблему?
При обсуждении ИИ люди часто больше сосредотачиваются на его мощных возможностях. Однако проблемы «галлюцинаций» или предвзятости ИИ часто игнорируются. Что касается «галлюцинаций» ИИ, проще говоря, это означает, что ИИ иногда может «выдумывать» и серьезно нести чушь. Например, если вы спросите ИИ, почему луна розовая, он может дать ряд на вид разумных, но на самом деле необоснованных объяснений.
Появление "галлюцинаций" или предвзятости у ИИ связано с некоторыми текущими направлениями технологий ИИ. Генеративный ИИ достигает связности и разумности, предсказывая "наиболее вероятное" содержимое, но иногда не может проверить истинность. Кроме того, сами обучающие данные могут содержать ошибки, предвзятости или даже вымышленные материалы, что также влияет на выводы ИИ. Другими словами, ИИ учится языковым паттернам человека, а не самим фактам.
Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к тому, что ИИ производит "галлюцинации". Если такие предвзятые или иллюзорные выходные данные ограничиваются общими знаниями или развлекательным контентом, это временно может не привести к непосредственным последствиям. Но если это произойдет в таких строго регламентированных областях, как здравоохранение, право, авиация и финансы, это может иметь серьезные последствия. Поэтому решение проблем галлюцинаций и предвзятости ИИ становится одной из ключевых задач в процессе развития ИИ.
Проект Mira пытается решить эту проблему, создавая уровень доверия для ИИ, чтобы повысить его надежность. Итак, как Mira снижает предвзятость и иллюзии ИИ и в конечном итоге достигает доверенного ИИ?
Основная идея Mira заключается в верификации вывода ИИ через консенсус нескольких моделей ИИ. По сути, это сеть верификации, которая обеспечивает надежность вывода ИИ через децентрализованную верификацию консенсуса. Этот подход сочетает в себе преимущества децентрализованной верификации консенсуса, в которых преуспевает криптографическая область, и совместной работы нескольких моделей, чтобы уменьшить предвзятость и галлюцинации через коллективную верификацию.
В области проверки архитектуры протокол Mira поддерживает преобразование сложного контента в независимые проверочные утверждения. Операторы узлов участвуют в проверке этих утверждений, обеспечивая честное поведение через механизмы экономического стимула и наказания. Разные модели ИИ и децентрализованные операторы узлов совместно участвуют для обеспечения надежности результатов проверки.
Сетевая архитектура Mira включает в себя преобразование контента, распределенную проверку и механизм консенсуса. Сначала система разбивает представленные клиентом кандидатные материалы на проверяемые заявления, а затем распределяет их по узлам для проверки. Узлы определяют действительность заявлений и собирают результаты для достижения консенсуса. Чтобы защитить конфиденциальность клиентов, заявления будут распределены среди различных узлов случайным образом.
Операторы узлов получают доход, запуская модели валидации, обрабатывая заявления и подавая результаты валидации. Эти доходы происходят от ценности, созданной для клиентов, а именно снижения уровня ошибок ИИ в ключевых областях. Чтобы предотвратить случайные ответы узлов, узлы, которые постоянно отклоняются от консенсуса, будут наказаны.
В целом, Mira предлагает новый подход к решению задач, создавая децентрализованную сеть проверки консенсуса, что обеспечивает большую надежность AI-сервисов для клиентов. Она стремится стать уровнем доверия для AI, способствуя углубленному развитию AI-приложений.
В настоящее время Mira сотрудничает с несколькими фреймворками AI агент. Пользователи могут участвовать в публичной тестовой сети через Klok (приложение для чата на основе LLM от Mira), испытывать проверенные AI-выходы и иметь возможность зарабатывать очки Mira.