Regresión Lineal y Knn hasta Random Forests y Redes Neuronales.
Nota importante: Este esquema de algoritmos de Machine Learning es simplificado y puede no cubrir todas las situaciones. Es importante considerar los detalles específicos de cada tarea y conjunto de datos antes de elegir un algoritmo.
Fuente: Rosana Ferrero Científica de datos, Directora Académica y Docente
Método de análisis de datos que automatiza la construcción de “Modelos Analíticos”.
Rama de la Inteligencia Artificial (AI), basada en la idea de que los sistemas pueden aprender de datos, identificar patrones y tomar decisiones con una mínima intervención humana.
Es un modelo estadístico de predicción, siempre hay un margen de error.
Rrama de la Inteligencia Artificial que consiste en la automatización de modelos analíticos con sistemas que aprenden de los datos para generar pronósticos y ser capaces de tomar decisiones
La Inteligencia artificial surge como un mecanismo para suplir necesidades y nace con el desarrollo de los primeros sistemas autónomos capaces de tomar decisiones con sistemas basados en recompensas. La evolución de este campo de la ciencia, matemática, ingeniería tiene ya más de 60 años y solo con el incremento de recursos computacionales a partir de los años 80 se ha podido avanzar en el tema
1950- Maquina de Turing
1951- SNARC primera maquina neuronal
1956- Primerz vez que se reconoce el termino IA
1963- Expansion teoria ML
1964 - LISP programa que resuelve problemas de algebra
1965- Chatbot ELIZA
1972- MYON para deteccion de enfermedades infecciosas
1975-1980 Primer Invierno de IA, falta de recursos computacionales
1982- Teoria de redes neuronales comienzan a ganar popularidad
1991- Sistemas de planificacion DART
1997- DeepBlue ganandole al campeon de ajedrez
2000- Algoritmos AI usados en mercados verticales
2005- Sistemas de recomendacion web
2011- IBM Watson NLP
2012- Google Brain reconoce imagenes
2015- Alpha Go para videojuegos
2017- Todo se mueve a entorno Cloud
Fuente: Adaptado de https://www.javatpoint.com/history-of-artificial-intelligence
Son aquellos donde se tiene etiqueta o variable respuesta. Se clasifican en problemas de regresión y clasificación. Se fundamenta en crear modelos con información histórica para luego poder predecir en el futuro.
Son aquellos donde no se tiene variable respuesta. Tiene como fin encontrar patrones y asociaciones ocultas en los datos, por ejemplo en una campaña de marketing
Funciona con un mecanismo de recompensa. Un agente (máquina) que interactúa con el entorno y prueba una variedad de métodos para alcanzar un resultado. El agente es recompensado o castigado en cada acción que realiza
¿El automóvil de conducción autónoma de Google?
¿Ofertas de recomendación en línea como las de Amazon y Netflix?
¿Saber lo que los clientes dicen acerca de nosotros en Twitter? Machine learning combinado con creación de reglas lingüísticas.
Uno de los usos más importantes en la actualidad del ML.
Google RankBrain: componente del algoritmo central de Google que utiliza ML para determinar los resultados más relevantes para las consultas del motor de búsqueda. (ML)
Google DeepMind: DeepMind ha creado una red neuronal que aprende a jugar videojuegos de una manera similar a la de los humanos como una máquina de Turing neuronal (DL)
El interés por el ML se debe a los volúmenes y variedades crecientes de datos disponibles, el procesamiento computacional más económico y poderoso y el almacenaje de datos asequible y mucho menos costoso.
Es posible producir a través de este, generar modelos de manera rápida y automática que puedan analizar datos grandes y complejos. De esta forma, una organización tiene una mejor oportunidad de identificar oportunidades rentables o de evitar riesgos desconocidos.
Rápido sistema de toma de decisiones
Mejores resultados
Manejo de información multipropósito
Automatización
Aplicaciones con rango amplio de uso
Transformación de datos a insights
Mayor conocimiento de las necesidades, gustos y hábitos de compra de los clientes.
Innovación en productos y soluciones tecnológicas.
Optimización de la producción y de la productividad.
Capacidad de realizar acciones preventivas y correctivas.
Predicción de tendencias y necesidades.
Insuficiente cantidad de información: ML requiere conjuntos de datos masivos que deben ser inclusivos/imparciales y de buena calidad
Tiempo y recursos: ML necesita tiempo suficiente y recursos masivos para permitir que los algoritmos aprendan y se desarrollen bien.
Interpretación de resultados: capacidad de interpretar con precisión los resultados generados por los algoritmos.
Alta susceptibilidad al error: si se entrenan modelos con datos insuficientes o con parámetros no apropiados se puede tener alto error.
Utilizan la tecnología del aprendizaje basado en máquina para dos fines principales: identificar insights importantes en los datos y prevenir el fraude.
Tendencia en rápido crecimiento en la industria de atención a la salud, gracias a la aparición de dispositivos y sensores que pueden usar datos para evaluar la salud de un paciente en tiempo real.
Principalmente para encontrar nuevas fuentes de energía, hacer análisis de minerales del suelo, predicción de fallos de sensores de refinerías y optimizar la distribución de petróleo para hacerla más eficiente.
Dependencias como seguridad pública y los servicios públicos tienen una necesidad particular del ML porque tienen múltiples fuentes de datos de las que se pueden extraer insights. Por ejemplo, el análisis de datos en las Smart Cities.
Los sitios Web que recomiendan artículos que podrían llegar a gustarnos con base en nuestras compras anteriores, utilizan ML para analizar nuestro historial de compras y de tal forma promocionar otros artículos que podrían llegar a resultarnos de interés.
Analizar datos para identificar patrones y tendencias, es clave para la industria del transporte, que se sustenta en hacer las rutas más eficientes y anticipar problemas potenciales para incrementar la rentabilidad.
Los sistemas normales no pueden mantenerse al día con los malware y virus que se crean continuamente. ML se puede utilizar para detectar amenazas. Los sistemas asistidos pueden encontrar estos virus y malware, e.g la plataforma Tessian
ML puede transformar todo el ciclo de vida del software, con el fin de modelar nuevas aplicaciones con diversas arquitecturas y experiencias de usuario con base en el valor comercial y el impacto para la organización, e.g plataforma Neoteric.
Luego de crisis financiera de 2008, se pudieron crear algoritmos que identifican factores relevantes para predecir las anomalías financieras. Por ejemplo GreenKey Technologies AI utiliza procesamiento de lenguaje natural (NLP) con este propósito