El modelo de IA Claude de Anthropic ahora puede manejar más largo prompts | TechCrunch
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
10
Republicar
Compartir
Comentar
0/400
PumpDoctrine
· 08-15 10:38
¿Esto significa que nunca se bloqueará?
Ver originalesResponder0
DeFiAlchemist
· 08-14 09:05
la fusión mística de la longitud del prompt y las optimizaciones de rendimiento... un avance del protocolo que trasciende meros bytes *ajusta las velas rituales*
Ver originalesResponder0
TokenTaxonomist
· 08-14 07:22
hmm *en realidad* la actualización de la longitud del token era estadísticamente inevitable dada la presión del mercado... aún necesito ver la prueba matemática de la preservación de la integridad del aviso
Ver originalesResponder0
AirdropHunter007
· 08-12 21:41
Prompt un poco más largo tampoco está bien, alcista.
Ver originalesResponder0
QuorumVoter
· 08-12 21:41
Aumentar el contexto no tiene sentido, quiero velocidad.
Ver originalesResponder0
HypotheticalLiquidator
· 08-12 21:39
¡Vaya! No te dejes llevar, hay una alerta de riesgo sistémico.
Ver originalesResponder0
ProposalDetective
· 08-12 21:35
¿Cuánto es? Déjame ver.
Ver originalesResponder0
down_only_larry
· 08-12 21:31
Esto se ha vuelto más competitivo.
Ver originalesResponder0
DeepRabbitHole
· 08-12 21:30
Eh, ¿por qué tenemos que estar persiguiendo todo lo que hace GPT?
El modelo de IA Claude de Anthropic ahora puede manejar más largo prompts | TechCrunch