Lembra-se quando o conselho removeu o Sam do cargo de CEO? Talvez tenham visto algo que nós não vimos.
Parece que um grande laboratório de IA está a implementar novos protocolos de segurança para os seus modelos. Estão especificamente a focar em construir barreiras para evitar outputs prejudiciais. A abordagem de treino agora inclui ensinar os modelos a lidar com pedidos arriscados sem realmente executá-los.
O timing é interessante, certo? Estas medidas de segurança surgem após meses de debates internos sobre a velocidade do desenvolvimento de IA versus responsabilidade. A estrutura técnica envolve uma triagem em múltiplas camadas antes que qualquer resposta do modelo seja gerada.
O que me chama a atenção: eles já não estão apenas a filtrar outputs. Os dados de treino estão a ser reestruturados para incorporar considerações de segurança desde o início. Uma abordagem diferente da moderação reativa que já vimos antes.
Ainda assim, permanecem dúvidas sobre se estas salvaguardas podem acompanhar a rapidez com que estes sistemas estão a evoluir. A diferença entre capacidade e controlo continua a aumentar.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
7 gostos
Recompensa
7
3
Republicar
Partilhar
Comentar
0/400
OnChainSleuth
· 21h atrás
Sam foi afastado, e agora parece realmente um pouco suspeito... Será que esse pessoal está levando a sério os protocolos de segurança ou só está de fachada?
Ver originalResponder0
GasFeeSobber
· 21h atrás
Haha, só depois do assunto do Sam é que fizeram o protocolo de segurança? Já está um pouco tarde.
Ver originalResponder0
YieldFarmRefugee
· 21h atrás
No fundo, foi apenas covardia, se lembrou e quer rapidamente remediar a situação
Lembra-se quando o conselho removeu o Sam do cargo de CEO? Talvez tenham visto algo que nós não vimos.
Parece que um grande laboratório de IA está a implementar novos protocolos de segurança para os seus modelos. Estão especificamente a focar em construir barreiras para evitar outputs prejudiciais. A abordagem de treino agora inclui ensinar os modelos a lidar com pedidos arriscados sem realmente executá-los.
O timing é interessante, certo? Estas medidas de segurança surgem após meses de debates internos sobre a velocidade do desenvolvimento de IA versus responsabilidade. A estrutura técnica envolve uma triagem em múltiplas camadas antes que qualquer resposta do modelo seja gerada.
O que me chama a atenção: eles já não estão apenas a filtrar outputs. Os dados de treino estão a ser reestruturados para incorporar considerações de segurança desde o início. Uma abordagem diferente da moderação reativa que já vimos antes.
Ainda assim, permanecem dúvidas sobre se estas salvaguardas podem acompanhar a rapidez com que estes sistemas estão a evoluir. A diferença entre capacidade e controlo continua a aumentar.