Programa del Curso

Introducción

Esta sección proporciona una introducción general de cuándo usar el "aprendizaje automático", qué se debe considerar y qué significa todo, incluidos los pros y los contras. Tipos de datos (estructurados / no estructurados / estáticos / transmitidos), validez / volumen de datos, análisis basados en datos vs impulsados por el usuario, modelos estadísticos frente a modelos de aprendizaje automático / desafíos del aprendizaje no supervisado, compensación de varianza de sesgo, iteración / evaluación, enfoques de validación cruzada, supervisados / no supervisados / refuerzo.

TEMAS PRINCIPALES

1. Comprender al Bayes ingenuo

  • Conceptos básicos de los métodos bayesianos
  • Probabilidad
  • Probabilidad conjunta
  • Probabilidad condicional con teorema de Bayes
  • El ingenuo algoritmo de Bayes
  • La ingenua clasificación de Bayes
  • El estimador de Laplace
  • Uso de características numéricas con Bayes ingenuo

2. Comprender los árboles de decisión

  • Divide y vencerás
  • El algoritmo del árbol de decisión C5.0
  • Elegir el mejor split
  • Poda del árbol de decisión

3. Comprender las redes neuronales

  • De las neuronas biológicas a las artificiales
  • Funciones de activación
  • Topología de red
  • El número de capas
  • La dirección del viaje de información
  • El número de nodos en cada capa
  • Entrenamiento de redes neuronales con retropropagación
  • Deep Learning

4. Comprender las máquinas de vectores de soporte

  • Clasificación con hiperplanos
  • Encontrar el margen máximo
  • El caso de los datos linealmente separables
  • El caso de los datos no separables linealmente
  • Uso de núcleos para espacios no lineales

5. Comprensión de la agrupación en clústeres

  • Agrupación en clústeres como tarea de aprendizaje automático
  • El algoritmo k-means para la agrupación en clústeres
  • Uso de la distancia para asignar y actualizar clústeres
  • Elegir el número adecuado de clústeres

6. Medición del rendimiento para la clasificación

  • Trabajar con datos de predicción de clasificación
  • Una mirada más cercana a las matrices de confusión
  • Uso de matrices de confusión para medir el rendimiento
  • Más allá de la precisión: otras medidas de rendimiento
  • La estadística kappa
  • Sensibilidad y especificidad
  • Precisión y recuperación
  • La medida F
  • Visualización de las compensaciones de rendimiento
  • Curvas ROC
  • Estimación del rendimiento futuro
  • El método de retención
  • Validación cruzada
  • Bootstrap muestreo

7. Ajuste de los modelos de stock para un mejor rendimiento

  • Uso de la intercalación para el ajuste automatizado de parámetros
  • Creación de un modelo ajustado simple
  • Personalización del proceso de ajuste
  • Mejora del rendimiento del modelo con metaaprendizaje
  • Entendiendo los conjuntos
  • Embolsado
  • Impulsar
  • Bosques aleatorios
  • Entrenamiento de bosques aleatorios
  • Evaluación del rendimiento aleatorio del bosque

TEMAS MENORES

8. Comprender la clasificación utilizando los vecinos más cercanos

  • El algoritmo kNN
  • Cálculo de la distancia
  • Elegir un k apropiado
  • Preparación de datos para su uso con kNN
  • ¿Por qué el algoritmo kNN es perezoso?

9. Comprender las reglas de clasificación

  • Separa y conquista
  • El algoritmo One Rule
  • El algoritmo RIPPER
  • Reglas de los árboles de decisión

10. Comprender la regresión

  • Regresión lineal simple
  • Estimación de mínimos cuadrados ordinarios
  • Correlaciones
  • Regresión lineal múltiple

11. Comprender los árboles de regresión y los árboles modelo

  • Agregar regresión a los árboles

12. Comprender las reglas de asociación

  • El algoritmo a priori para el aprendizaje de reglas de asociación
  • Medición del interés de las reglas: apoyo y confianza
  • Construir un conjunto de reglas con el principio de Apriori

Extras

  • Spark/PySpark/MLlib y bandidos multiarmados
 21 horas

Número de participantes



Precio por participante

Testimonios (5)

Cursos Relacionados

H2O AutoML

14 horas

AutoML con Auto-sklearn

14 horas

AutoML con Auto-Keras

14 horas

Avanzado Stable Diffusion: Aprendizaje profundo para la generación de texto a imagen

21 horas

Introducción a Stable Diffusion para la generación de texto a imagen

21 horas

AlphaFold

7 horas

TensorFlow Lite for Embedded Linux

21 horas

TensorFlow Lite for Android

21 horas

TensorFlow Lite for iOS

21 horas

Tensorflow Lite for Microcontrollers

21 horas

Deep Learning Neural Networks with Chainer

14 horas

Distributed Deep Learning with Horovod

7 horas

Accelerating Deep Learning with FPGA and OpenVINO

35 horas

Building Deep Learning Models with Apache MXNet

21 horas

Deep Learning with Keras

21 horas

Categorías Relacionadas

1