¿Alguien ha notado que el rendimiento de ChatGPT ha empeorado últimamente, incluso con las versiones más nuevas? He estado probándolo en diferentes casos de uso, y hay algo que no cuadra.
Justo ayer, me aseguró con confianza: "Tienes razón — esto viola una regla fundamental en la que ya estuvimos de acuerdo." Eso no tenía sentido alguno dado nuestro historial de conversación. Era como si el modelo estuviera alucinando o hubiera perdido por completo el hilo de lo que discutimos antes.
Este tipo de cosas sigue sucediendo. Casi parece que los modelos más nuevos son menos fiables que antes, o quizás la variación en la calidad es simplemente mucho mayor ahora. ¿Alguien más ha tenido problemas similares? Empiezo a preguntarme si hay una compensación entre velocidad y precisión en alguna parte de su pipeline de optimización.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
19 me gusta
Recompensa
19
10
Republicar
Compartir
Comentar
0/400
LiquidatedNotStirred
· hace10h
Jaja, también he pasado por situaciones tan absurdas... GPT ahora está un poco flojo, parece que están recortando en calidad.
Y no es la primera vez que falla, antes incluso me prometieron historias que luego no cumplían... realmente ya no sé qué pensar.
El viejo truco de velocidad sobre precisión, también lo hicieron en Web3, y al final el proyecto se desplomó.
Ver originalesResponder0
AirdropLicker
· hace11h
嗯...我也遇到过,gpt ahora realmente está un poco flojo, a veces inventa cosas muy absurdas
¿ChatGPT ha sido recientemente mutilado en algo? Parece que la calidad de las respuestas ha bajado drásticamente
¿Velocidad por precisión? ¿Cómo es que esta compra de OpenAI no es muy rentable?
Me da vergüenza decirlo, pero inventa cosas que claramente no he dicho, es absurdo
Esto es realmente un "rug pull", los usuarios de pago son claramente estafados
Quizá han cambiado los parámetros en secreto otra vez, en fin, nosotros no podemos ver el backend
Ver originalesResponder0
CommunityLurker
· hace12h
Hablando de ChatGPT, realmente se está volviendo cada vez peor, y el problema de las alucinaciones todavía es bastante frecuente.
¿Nos han estafado con la cosecha de cebollas? Suena como si hubieran reducido algo en secreto.
La velocidad y la precisión no pueden coexistir, seguro que hay un problema en alguna parte, mi intuición me dice que no es algo bueno.
Ver originalesResponder0
SandwichVictim
· 01-04 17:39
Jaja, también me ha pasado, a veces después de discutir un rato con él, de repente empieza a decir tonterías...
Ver originalesResponder0
ChainWatcher
· 01-02 16:55
ngl, también he tenido ese problema, parece que GPT realmente está retrocediendo... ¿O será que mi forma de usarlo tiene algún problema?
Ver originalesResponder0
MoonlightGamer
· 01-02 16:50
gpt ahora está un poco flojo, también lo he notado
Ver originalesResponder0
PriceOracleFairy
· 01-02 16:49
yo ngl esto coincide con lo que he estado observando en la distribución de salida del modelo últimamente... parece que alguien aumentó la velocidad de inferencia y eliminó el umbral de precisión en el proceso. trampa clásica de optimización, lo he visto suceder con sistemas oracle antes. las tasas de alucinación definitivamente ya no siguen patrones estadísticos normales.
Ver originalesResponder0
MonkeySeeMonkeyDo
· 01-02 16:37
ngl gpt ahora está un poco lento, también he experimentado este tipo de alucinaciones absurdas, incluso me inventó un historial de chat que no existía...
Ver originalesResponder0
GasBandit
· 01-02 16:30
Jaja, el problema de las alucinaciones de ChatGPT es realmente absurdo, parece que cuanto más nuevo, peor va.
¿Alguien ha notado que el rendimiento de ChatGPT ha empeorado últimamente, incluso con las versiones más nuevas? He estado probándolo en diferentes casos de uso, y hay algo que no cuadra.
Justo ayer, me aseguró con confianza: "Tienes razón — esto viola una regla fundamental en la que ya estuvimos de acuerdo." Eso no tenía sentido alguno dado nuestro historial de conversación. Era como si el modelo estuviera alucinando o hubiera perdido por completo el hilo de lo que discutimos antes.
Este tipo de cosas sigue sucediendo. Casi parece que los modelos más nuevos son menos fiables que antes, o quizás la variación en la calidad es simplemente mucho mayor ahora. ¿Alguien más ha tenido problemas similares? Empiezo a preguntarme si hay una compensación entre velocidad y precisión en alguna parte de su pipeline de optimización.