Aprenda a utilizar ONNX para poner en producción sus modelos de antorcha y tensorflow. Acelere la inferencia en un factor de hasta 2,5 veces.

Nota: El cuaderno completo está disponible aquí.

Actualizar: Si está leyendo esto en un futuro lejano (a partir de abril de 2021), es posible que el código subyacente de este artículo quede obsoleto debido a cambios en las bibliotecas subyacentes.

Introducción

Trabajar con transformadores se ha convertido en la nueva norma para las aplicaciones de PNL de última generación. Pensando en BERT o GPT3, podemos concluir con seguridad que casi todas las aplicaciones de PNL se benefician en gran medida de los modelos similares a transformadores. Sin embargo, estos modelos suelen ser muy costosos de implementar y requieren un hardware especial para su ejecución. En este artículo, aprenderá qué es ONNX …


#classew #relnoopener #hrefwhatisregressiontothemeanf86f655d9c42sourcecollectionhome0Qué #regresión #mediaa