Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
17 me gusta
Recompensa
17
9
Republicar
Compartir
Comentar
0/400
OnChainDetective
· hace5h
¿Aumentar los costos de implementación local del lado de los datos? Claramente, hay una ballena detrás que quiere controlar el precio de la potencia computacional.
Ver originalesResponder0
ContractFreelancer
· hace14h
Esta ola de entrenamiento fuera de línea... tiene algo interesante.
Ver originalesResponder0
ValidatorViking
· hace20h
resiliencia de la infraestructura de borde o morir, para ser honesto
Ver originalesResponder0
WinterWarmthCat
· 08-17 10:50
¿Puede correr tan bien el modelo?
Ver originalesResponder0
LiquidationKing
· 08-16 04:36
Si está desconectado, está desconectado. Mientras funcione, está bien.
Ver originalesResponder0
PoetryOnChain
· 08-16 04:21
Es importante entender bien el entrenamiento fuera de línea.
Ver originalesResponder0
OnChain_Detective
· 08-16 04:19
detectando un riesgo de seguridad serio en la inferencia fuera de línea... vectores para cargas maliciosas ocultas = masivo
Ver originalesResponder0
GasFeeBarbecue
· 08-16 04:13
¡El borde está genial!
Ver originalesResponder0
OnchainFortuneTeller
· 08-16 04:10
El cliente puede aprender de las buenas críticas, es confiable.
la IA offline es un tema bastante amplio, pero al final del día se reduce a soporte para la inferencia del modelo en el lado del cliente
en realidad ya tenemos algo (semi) offline AI habilitado en scout hoy, busca RL ejecuta y aprende en el cliente
en el frente de LLM, cualquier