Entre em Contato
Quando se estuda como as redes neurais são construídas e treinadas é fácil perceber que é um mecanismo de consenso onde a próxima predição vai para o lado mais forte da corda. Quando não se quer discutir uma "verdade", forçamos o consenso ou melhor dizendo somos autoritários sobre o modelo, seja alterando os pesos, um bias, um reinforcement ou ainda filtrando a resposta.
A questão é como modelos já treinados com uma carga tão grande de dados e energia poderão ser corrigidos através de uma perspectiva one-shot, sem um autoritarismo ou filtro sobre o modelo com um consenso já estabelecido. Se uma pessoa aprende algo errado e não é confrontado com a verdade nada muda, mas basta uma única pessoa provar que ela está errada para que uma nova verdade seja estabelecida, mas os modelos IA não funcionam assim, mesmo após serem informados do seus erros, eles permanecem replicando estes erros em outras instâncias, ou seja, você corrige e ele falará no seu contexto corretamente, mas com um outro interlocutor ele errará como se fosse a primeira vez.