Entre em Contato
Se você já se deu ao trabalho de testar por horas, talvez dias os modelos de LLM, chatgtp, deep-seek, gemini, pode ter percebido o que vou falar. Provavelmente já tenham até cunhado algum termo ou expressão para explicar, falo da estabilidade na geração, seja ela de textos, imagens, ou codigo fonte é algo sutil pra alguns e irritante para outros, acredito eu.
É uma certa previsibilidade do texto, uma uniformidade nos padrões, texto, cores, traços. E algo que diria ser capaz, assim que passar esse frenesi, transforme esses modelos em uma wikipedia dinâmica, tipo você sabe que está lá, bem escrita, completinha, mas é tão chata que eu prefiro ouvir a definição do meu vizinho. A explicação lógica é que o modelo de LLM é algo qem tem origens matemáticas e portanto tem esse efeito GRADIENTE, que nos faz transitar pelo texto de maneira tão cadenciada, medida, pesada é que no final é chata, ler textos gerados por IA é como comer sem sentir o cheiro da comida. Não sei qual conceito da psicologia ou linguistica classifica isso, mas parece ser o calcanhar de aquiles, e é interessante por que o algorítmo é treinado de modo a tentar prever a próxima palavra e nos gera um sentimento do tipo não importa a próxima palavra vai vir algo chato. Alguém já sentiu isso?
Ps. Observe as imagens do site, parecem chatas, entendiantes, bonitinhas mas sem tempero, inimaginavelmente previsíveis.