O modelo de IA Claude da Anthropic agora pode lidar com prompts mais longos | TechCrunch
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
10
Repostar
Compartilhar
Comentário
0/400
PumpDoctrine
· 08-15 10:38
Isso significa que nunca mais vai travar?
Ver originalResponder0
DeFiAlchemist
· 08-14 09:05
a fusão mística do comprimento do prompt e otimizações de rendimento... um avanço de protocolo que transcende meros bytes *ajusta as velas rituais*
Ver originalResponder0
TokenTaxonomist
· 08-14 07:22
hmm *na verdade* a atualização do comprimento do token era estatisticamente inevitável dados os pressões do mercado... ainda preciso ver a prova matemática da preservação da integridade do prompt
Ver originalResponder0
AirdropHunter007
· 08-12 21:41
Prompt um pouco mais longo também não pode, bull啊
Ver originalResponder0
QuorumVoter
· 08-12 21:41
Aumentar o contexto não faz sentido, eu quero velocidade.
Ver originalResponder0
HypotheticalLiquidator
· 08-12 21:39
Bom Deus, não se deixe levar, alerta de risco sistêmico.
Ver originalResponder0
ProposalDetective
· 08-12 21:35
Quão grande? Deixa-me ver.
Ver originalResponder0
down_only_larry
· 08-12 21:31
Agora ficou ainda mais competitivo.
Ver originalResponder0
DeepRabbitHole
· 08-12 21:30
Ah, por que é que temos de correr atrás do GPT para tudo?
O modelo de IA Claude da Anthropic agora pode lidar com prompts mais longos | TechCrunch