Introducción a aprendizaje automático en python

Presentación Introducción al aprendizaje automático en Python

Contenidos de la presentación de “Introducción al aprendizaje automático en Python” para un grupo de programadores que, partiendo de como instalar y crear un ambiente en Anaconda para usar en Visual Studio Code o Jupyter Notebook, aborda conceptos como machine learning, big data, data science, sus relaciones, el preprocesamiento y la visualización de datos y los modelos de algoritmos, analizando problemas como overfitting y underfitting.

InstalandoCNTK

Cómo instalar Microsoft Cognitive Toolkit en Windows

Aquí se describe cómo instalar Microsoft Cognitive Toolkit en Windows en sus diferentes variantes, prestando especial atención a los detalles de la instalación manual relacionados con la instalación de Anaconda3 y el entorno de Python. Para la instalación se utilizan los archivos binarios (compilados) que se pueden descargar desde el sitio de CNTK.

ONNX

ONNX – Open Neural Network Exchange

ONNX es un formato abierto para representar modelos de Deep learning (aprendizaje profundo). Ya tiene soporte disponible en varios de los frameworks más importantes del mercado como Caffe2 de Facebook, CNTK (Cognitive Toolkit) de Microsoft, Apache MXNet, PyTorch y TensorRT de NVIDIA. También hay convertidores desarrollados por la comunidad para otros proyectos como TensorFlow de Google y CoreML de Apple .

Aprende Trafico

Inteligencia Artificial que aprende continuamente

Una Inteligencia Artificial que aprende continuamente es claramente un objetivo actual. El programa L2M de DARPA refleja esta meta. En los últimos años ha habido un gran avance en la tecnología de inteligencia artificial. Sin embargo, todavía esta tecnología no es capaz de realizar muchas tareas que el ser humano realiza muy fácilmente como aprender de la experiencia continuamente. Este proyecto/programa tratará de revertir esta situación.

SeguridadAIRojo

Problemas de seguridad relacionados a la inteligencia artificial

Resumen del contenido del paper que describe algunos de los problemas de seguridad de la inteligencia artificial. El mismo fue escrito por investigadores de Berkeley, Stanford y Google entre otros. Especialmente trata la seguridad de los algoritmos de Machine Learning relacionados al aprendizaje automático por refuerzo (Reinforcement Learning).