Às vezes, a IA diz algo errado, não porque é burra, mas porque ninguém lhe pede responsabilidade.
Eu usei muitas "ferramentas de IA", escrevendo rapidamente e desenhando decentemente, mas cada vez que vejo uma delas a criar dados de forma séria e a falar de lógica de forma aleatória, percebo uma coisa: gerar nunca foi o problema; validar é que é o verdadeiro desafio.
É por isso que estou interessado na @Mira_Network.
Não se trata de querer fazer o próximo ChatGPT, nem de reunir uma série de GPUs para uma competição de inferência. A questão é abordada de uma nova maneira: como podemos confiar nas saídas da IA?
A resposta que a Mira deu não foi "temos um modelo mais forte", mas sim: "se queres que a IA fale, então tens de fazer com que ela possa ser verificada, questionada e provada."
Você gera um conteúdo com AI no ecossistema Mira, que será dividido em uma série de pequenos julgamentos, enviados para vários nós para validação, o processo registra na blockchain, o resultado é consenso, e erros têm que ser compensados.
Você pode usá-lo para escrever um texto, procurar uma definição, gerar uma imagem, e ao lado ele informará: de quem é essa conclusão, se há consenso, se é confiável.
Antes, usar IA era você ouvir histórias. Agora, usar o Mira é você ver ela entregar trabalhos.
Por isso eu digo que não é uma aplicação de IA, é mais como um "tribunal onde a IA fala".
Claro que você pode continuar a usar IA para escrever, desenhar e buscar materiais, mas quando essas coisas começam a decidir recomendações médicas, termos contratuais e provas de litígios, é melhor ter um lugar onde cada uma de suas palavras tenha um respaldo.
Mira é exatamente esse lugar. Não é para julgar por você, mas para garantir que o que você vê não é algo gerado por IA.
@KaitoAI
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Às vezes, a IA diz algo errado, não porque é burra, mas porque ninguém lhe pede responsabilidade.
Eu usei muitas "ferramentas de IA", escrevendo rapidamente e desenhando decentemente, mas cada vez que vejo uma delas a criar dados de forma séria e a falar de lógica de forma aleatória, percebo uma coisa: gerar nunca foi o problema; validar é que é o verdadeiro desafio.
É por isso que estou interessado na @Mira_Network.
Não se trata de querer fazer o próximo ChatGPT, nem de reunir uma série de GPUs para uma competição de inferência. A questão é abordada de uma nova maneira: como podemos confiar nas saídas da IA?
A resposta que a Mira deu não foi "temos um modelo mais forte", mas sim: "se queres que a IA fale, então tens de fazer com que ela possa ser verificada, questionada e provada."
Você gera um conteúdo com AI no ecossistema Mira, que será dividido em uma série de pequenos julgamentos, enviados para vários nós para validação, o processo registra na blockchain, o resultado é consenso, e erros têm que ser compensados.
Você pode usá-lo para escrever um texto, procurar uma definição, gerar uma imagem, e ao lado ele informará: de quem é essa conclusão, se há consenso, se é confiável.
Antes, usar IA era você ouvir histórias. Agora, usar o Mira é você ver ela entregar trabalhos.
Por isso eu digo que não é uma aplicação de IA, é mais como um "tribunal onde a IA fala".
Claro que você pode continuar a usar IA para escrever, desenhar e buscar materiais, mas quando essas coisas começam a decidir recomendações médicas, termos contratuais e provas de litígios, é melhor ter um lugar onde cada uma de suas palavras tenha um respaldo.
Mira é exatamente esse lugar. Não é para julgar por você, mas para garantir que o que você vê não é algo gerado por IA.
@KaitoAI