Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Contexto
Nos últimos anos, empresas de tecnologia líderes como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mesmo exibindo potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessa tecnologia está firmemente nas mãos de alguns poucos gigantes da tecnologia. Com um forte capital e controle sobre os caros recursos computacionais, essas empresas estabeleceram barreiras difíceis de superar, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões impactarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidas adequadamente, a controvérsia sobre se a IA deve "ir para o bem" ou "ir para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar proativamente esses desafios.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram muitos aplicativos "Web3 AI" em blockchains populares como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas chave ainda dependem de serviços de nuvem centralizados; a propriedade meme é excessiva, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, e a profundidade e extensão da inovação precisam ser aprimoradas.
Para realmente realizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em grande escala de forma segura, eficiente e democrática, e que possa competir em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismos de incentivo eficiente e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos como poder de computação e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade de livros, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que incluem não apenas fornecer poder de computação e realizar o treinamento e a inferência de modelos de IA, mas também contribuir com recursos diversificados como armazenamento, dados e largura de banda, quebrando assim o monopólio das grandes corporações na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso e o mecanismo de incentivo subjacentes: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total de computação.
Desempenho elevado e capacidade de suporte a tarefas heterogéneas A tarefa de IA, especialmente o treino e a inferência de LLM, exige um desempenho computacional e uma capacidade de processamento paralelo extremamente elevados. Além disso, o ecossistema de IA na cadeia frequentemente precisa de suportar uma diversidade de tipos de tarefas heterogéneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários variados. A AI Layer 1 deve ser profundamente otimizada na arquitetura de base para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e prever uma capacidade de suporte nativa a recursos de computação heterogénea, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma extensão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A AI Layer 1 não só deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também deve garantir, a partir da mecânica de base, a verificabilidade e a conformidade dos resultados da saída da IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multipartidária (MPC) e outras tecnologias de ponta, a plataforma consegue permitir que cada inferência de modelo, treinamento e processo de manipulação de dados possam ser verificados de forma independente, assegurando a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a entender a lógica e a base das saídas da IA, alcançando o "que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crucial nas áreas financeira, médica e social. AI Layer 1 deve, ao garantir a verificabilidade, adotar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gerenciamento de permissões de dados, para assegurar a segurança dos dados durante todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós e provedores de serviços de IA, entre outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA diversificadas e ricas, realizando a contínua prosperidade de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá detalhar seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os mais recentes avanços na área, analisando o estado atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construir um modelo de IA descentralizado de código aberto e leal
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está construindo uma blockchain Layer1 de IA (, inicialmente na fase Layer 2, e depois migrará para Layer 1). Ao combinar a AI Pipeline e a tecnologia blockchain, visa construir uma economia descentralizada de inteligência artificial. Seu objetivo central é resolver os problemas de propriedade de modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado por meio da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA tenham uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI que seja impulsionada pela comunidade, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase, Polygon, bem como nas melhores universidades, incluindo a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como IA/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient veio com um halo desde o seu início, possuindo uma rica gama de recursos, conexões e reconhecimento de mercado, fornecendo um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com outros investidores, incluindo Delphi, Hashkey e dezenas de outras conhecidas VCs.
Arquitetura de design e camada de aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", incluindo dois processos principais:
Planejamento de Dados (Data Curation): processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento do modelo.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento consistente com a intenção da comunidade.
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade, o rastreamento de uso, a distribuição de receitas e a governança justa dos artefatos de IA. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena pesos do modelo e informações de registro de impressões digitais;
Camada de distribuição: o contrato de autorização controla a entrada de chamadas do modelo;
Camada de acesso: verifica se o usuário está autorizado através da prova de permissões;
Camada de incentivo: o contrato de roteamento de receita distribuirá o pagamento a cada chamada para os treinadores, implementadores e validadores.
Estrutura do Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada de modelo irá desencadear um fluxo de receita, o contrato na cadeia irá distribuir os lucros para o treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção da atualização e a governança são decididas pelo DAO, e o uso e modificação são controlados por mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". Sua tecnologia central é:
Impressão digital embutida: durante o treinamento, é inserido um conjunto de pares chave-valor de consulta-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi mantida através de um detector de terceiros (Prover) na forma de pergunta query;
Mecanismo de chamada de permissões: antes de chamar, é necessário obter o "certificado de autorização" emitido pelo proprietário do modelo, e o sistema autoriza o modelo a decodificar a entrada e retornar a resposta correta com base nisso.
Este método permite realizar "chamadas autorizadas baseadas em comportamento + verificação de afiliação" sem custo de recriptografia.
Modelo de Certificação e Quadro de Execução Segura
Sentient atualmente utiliza a segurança Melange: uma combinação de verificação por impressões digitais, execução TEE e contratos na cadeia para a divisão de lucros. O método de impressão digital é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, assume conformidade, sendo possível detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que gera assinaturas únicas durante a fase de treinamento ao incorporar pares específicos de "pergunta-resposta". Através dessas assinaturas, o proprietário do modelo pode verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia para o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e capacidade de resposta em tempo real fazem dele uma tecnologia central para a implementação atual de modelos.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica total (FHE) para reforçar ainda mais a proteção da privacidade e a verificabilidade, proporcionando soluções mais maduras para a implementação descentralizada de modelos de IA.
 e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
6 Curtidas
Recompensa
6
4
Repostar
Compartilhar
Comentário
0/400
Rugman_Walking
· 9h atrás
Os gigantes tradicionais estão se divertindo com a IA.
Ver originalResponder0
NFTHoarder
· 20h atrás
Alguns gigantes estão a brincar com o monopólio, mas o web3 é mais atraente.
Ver originalResponder0
MiningDisasterSurvivor
· 20h atrás
Hehe, na era da grande IA até o esquema Ponzi precisa de uma nova roupagem, não é? Já foi um espetáculo em 2018!
Relatório de pesquisa da camada 1 de IA: Seis grandes projetos para construir um ecossistema de IA Descentralização
Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Contexto
Nos últimos anos, empresas de tecnologia líderes como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço da imaginação humana e até mesmo exibindo potencial para substituir o trabalho humano em algumas situações. No entanto, o núcleo dessa tecnologia está firmemente nas mãos de alguns poucos gigantes da tecnologia. Com um forte capital e controle sobre os caros recursos computacionais, essas empresas estabeleceram barreiras difíceis de superar, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública muitas vezes se concentra nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, essas questões impactarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidas adequadamente, a controvérsia sobre se a IA deve "ir para o bem" ou "ir para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar proativamente esses desafios.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram muitos aplicativos "Web3 AI" em blockchains populares como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam vários problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas chave ainda dependem de serviços de nuvem centralizados; a propriedade meme é excessiva, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, e a profundidade e extensão da inovação precisam ser aprimoradas.
Para realmente realizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em grande escala de forma segura, eficiente e democrática, e que possa competir em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades principais:
Mecanismos de incentivo eficiente e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos como poder de computação e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade de livros, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que incluem não apenas fornecer poder de computação e realizar o treinamento e a inferência de modelos de IA, mas também contribuir com recursos diversificados como armazenamento, dados e largura de banda, quebrando assim o monopólio das grandes corporações na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso e o mecanismo de incentivo subjacentes: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total de computação.
Desempenho elevado e capacidade de suporte a tarefas heterogéneas A tarefa de IA, especialmente o treino e a inferência de LLM, exige um desempenho computacional e uma capacidade de processamento paralelo extremamente elevados. Além disso, o ecossistema de IA na cadeia frequentemente precisa de suportar uma diversidade de tipos de tarefas heterogéneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários variados. A AI Layer 1 deve ser profundamente otimizada na arquitetura de base para atender às necessidades de alta taxa de transferência, baixa latência e paralelismo elástico, e prever uma capacidade de suporte nativa a recursos de computação heterogénea, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, permitindo uma extensão suave de "tarefas únicas" para um "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A AI Layer 1 não só deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também deve garantir, a partir da mecânica de base, a verificabilidade e a conformidade dos resultados da saída da IA. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multipartidária (MPC) e outras tecnologias de ponta, a plataforma consegue permitir que cada inferência de modelo, treinamento e processo de manipulação de dados possam ser verificados de forma independente, assegurando a justiça e a transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a entender a lógica e a base das saídas da IA, alcançando o "que se obtém é o que se deseja", aumentando a confiança e a satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crucial nas áreas financeira, médica e social. AI Layer 1 deve, ao garantir a verificabilidade, adotar tecnologias de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gerenciamento de permissões de dados, para assegurar a segurança dos dados durante todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, e eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós e provedores de serviços de IA, entre outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA diversificadas e ricas, realizando a contínua prosperidade de um ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá detalhar seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os mais recentes avanços na área, analisando o estado atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construir um modelo de IA descentralizado de código aberto e leal
Visão Geral do Projeto
Sentient é uma plataforma de protocolo de código aberto que está construindo uma blockchain Layer1 de IA (, inicialmente na fase Layer 2, e depois migrará para Layer 1). Ao combinar a AI Pipeline e a tecnologia blockchain, visa construir uma economia descentralizada de inteligência artificial. Seu objetivo central é resolver os problemas de propriedade de modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado por meio da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de IA tenham uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de Agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI que seja impulsionada pela comunidade, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto o cofundador da Polygon, Sandeep Nailwal, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiência em empresas renomadas como Meta, Coinbase, Polygon, bem como nas melhores universidades, incluindo a Universidade de Princeton e o Instituto Indiano de Tecnologia, cobrindo áreas como IA/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient veio com um halo desde o seu início, possuindo uma rica gama de recursos, conexões e reconhecimento de mercado, fornecendo um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com outros investidores, incluindo Delphi, Hashkey e dezenas de outras conhecidas VCs.
Arquitetura de design e camada de aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", incluindo dois processos principais:
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade, o rastreamento de uso, a distribuição de receitas e a governança justa dos artefatos de IA. A arquitetura específica é dividida em quatro camadas:
Estrutura do Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". Sua tecnologia central é:
Este método permite realizar "chamadas autorizadas baseadas em comportamento + verificação de afiliação" sem custo de recriptografia.
Modelo de Certificação e Quadro de Execução Segura
Sentient atualmente utiliza a segurança Melange: uma combinação de verificação por impressões digitais, execução TEE e contratos na cadeia para a divisão de lucros. O método de impressão digital é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança Otimista (Optimistic Security)", ou seja, assume conformidade, sendo possível detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que gera assinaturas únicas durante a fase de treinamento ao incorporar pares específicos de "pergunta-resposta". Através dessas assinaturas, o proprietário do modelo pode verificar a propriedade, evitando cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia para o comportamento de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens de alto desempenho e capacidade de resposta em tempo real fazem dele uma tecnologia central para a implementação atual de modelos.
No futuro, a Sentient planeia introduzir provas de conhecimento zero (ZK) e criptografia homomórfica total (FHE) para reforçar ainda mais a proteção da privacidade e a verificabilidade, proporcionando soluções mais maduras para a implementação descentralizada de modelos de IA.
![Biteye e PANews publicam em conjunto um relatório de pesquisa sobre AI Layer1: procurando o solo fértil para DeAI na cadeia](