Spotify – Apple Podcast – Amazon Music – IVoox
En este episodio, exploramos la historia de la inteligencia artificial y cómo todo comenzó con Alan Turin en 1950 y como en los últimos meses se ha disparado sun progreso de forma exponencial.
Mientras saboreamos unas cervezas, nos fascinamos por el poder de las redes neuronales y cómo pueden reconocer patrones complejos en espacios tridimensionales. Es alucionante ver que las neuronas están conectadas de tal manera que pueden detectar patrones complejos, y cómo las redes neuronales han superado a los modelos más simples en la clasificación y detección de imágenes.
La conversación descubre el impacto revolucionario de los transformers en las redes neuronales. Quedando impresionados por cómo los transformers resolvieron el problema de la memoria limitada en las redes LSTM y permitiendo frases más largas con mejor enfoque en el contexto.
También se habla sobre el futuro del procesamiento de lenguaje de la IA, específicamente, los modelos neuronales basados en atención. Se explica que los modelos basados en atención analizan las relaciones entre palabras para un mejor entendimiento, y los problemas de traducción de texto de Google Translate provienen de no usar modelos basados en atención.
Como no, se habla de la integración del modelo de lenguaje GPT de Microsoft en su suite, comenzando con la integración de chat ahora disponible en Bing y que Microsoft planea integrar GPT en toda su suite, incluyendo Teams, permitiendo resúmenes automáticos de reuniones.
A medida que avanzaba la charla y fluían las cervezas, hablamos sobre la cantidad de parámetros en los modelos de lenguaje y cómo afecta su rendimiento. Los pros y los contras de los modelos con más parámetros frente a los modelos con menos parámetros, y cómo la calidad de los datos y la formación son importantes para determinar su rendimiento.
Al final se comenta sobre la preocupación por el impacto de la IA en la sociedad. Se habla sobre el potencial de la IA para causar cambios significativos en la sociedad y su posible impacto en los programadores.
Hitos importantes de la historia de las IAs y los trepidantes últimos meses.
1950: La Prueba de Turing: Propuesta por Alan Turing, esta fue una de las primeras y más influyentes ideas en el campo de la inteligencia artificial. La prueba de Turing planteó la cuestión de si una máquina puede imitar la inteligencia humana hasta el punto de ser indistinguible de un humano.
1956: Conferencia de Dartmouth: En esta conferencia se acuñó el término «inteligencia artificial» y se reconoció oficialmente como un campo de investigación. Esta conferencia reunió a los principales pensadores de la época y estableció la agenda para las décadas de investigación en IA que seguirían.
1957-1974: Durante este período, conocido como la «primera ola de IA», se desarrollaron los primeros programas de IA, que se basaban en reglas lógicas codificadas a mano.
1965: Se propone el algoritmo de aprendizaje automático de los vecinos más cercanos (k-NN).
1969: Marvin Minsky y Seymour Papert publican «Perceptrons», lo que lleva a una disminución en la investigación de las redes neuronales.
1979: Se desarrolla el Stanford Cart, un robot que puede navegar y evitar obstáculos en una habitación sin ayuda.
1980: Se inicia la era de los sistemas expertos, programas de computadora que emulan la capacidad de toma de decisiones de un experto humano.
1986: Algoritmo de Retropropagación: Este algoritmo permitió el entrenamiento eficiente de redes neuronales multicapa, lo que finalmente llevó al resurgimiento de las redes neuronales en los años 80 y 90 y sentó las bases para el aprendizaje profundo moderno.
1990: Se desarrollan los algoritmos de aprendizaje automático basados en árboles, como Random Forest y Gradient Boosting.
1997: IBM Deep Blue derrota a Garry Kasparov: Este fue un hito importante que demostró el potencial de la IA en la resolución de problemas complejos. El hecho de que una máquina pudiera derrotar al campeón mundial de ajedrez fue un momento decisivo en la percepción pública de la IA.
2006: Se acuña el término «aprendizaje profundo» para describir nuevas arquitecturas de redes neuronales.
2011: IBM Watson gana en el programa de televisión Jeopardy!, demostrando la capacidad de la IA para entender y responder preguntas formuladas en lenguaje natural.
2011: Siri
2012: Redes Neuronales Convolucionales en ImageNet: En la competencia ImageNet de 2012, una red neuronal convolucional logró un rendimiento significativamente mejor que los métodos anteriores para el reconocimiento de imágenes. Este fue un momento crucial que marcó el comienzo de la era del aprendizaje profundo y revolucionó campos como la visión por computadora.
2012: Redes Neuronales Convolucionales en ImageNet: En la competencia ImageNet de 2012, una red neuronal convolucional logró un rendimiento significativamente mejor que los métodos anteriores para el reconocimiento de imágenes. Este fue un momento crucial que marcó el comienzo de la era del aprendizaje profundo y revolucionó campos como la visión por computadora.
2014: Se introduce la arquitectura de red neuronal recurrente de largo corto plazo (LSTM), que mejora significativamente la capacidad de las máquinas para entender el lenguaje natural.
2014: Alexa
2015: Se lanza el primer modelo de Transformer, revolucionando el campo del procesamiento del lenguaje natural.
2016: El programa AlphaGo de Google DeepMind derrota al campeón mundial de Go, un juego mucho más complejo que el ajedrez desde el punto de vista de la IA.
2016: Google Assistant
2017: Transformers
En el contexto de la inteligencia artificial y el aprendizaje automático, fueron introducidos en un documento titulado «Attention is All You Need» por Vaswani et al., publicado en 2017. Este equipo de investigación pertenece a Google Brain, que es la división de investigación en inteligencia artificial de Google.
2018: OpenAI introduce GPT (Generative PreTrained Transformer), un modelo de lenguaje que puede generar texto coherente y relevante.
2019: Se lanza GPT-2, que mejora significativamente la capacidad de generación de texto de su predecesor.
2020: GPT-3, con 175 mil millones de parámetros, establece un nuevo estándar para los modelos de lenguaje.
2021: Enero DALL-E 1
2021: Copilot Octubre 2021
2022: Abril Dall-e 2 y Bard v2 de Google
2022: Diciembre ChatGPT
– 100 millones de usuarios en enero
2023: 7 de Febrero, Bing se integra con ChatGPT
Por otra parte, las acciones de Microsoft subieron 3%. Esta misma semana la empresa fundada por Bill Gates anunció que incorporaría ChatGPT a su motor de búsqueda Bing y que ha invertido 10 mil millones de dólares en OpenAI, la startup que desarrolló la popular inteligencia artificial.
2023: 10 de Febrero, Bard basado en Palm
El pasado miércoles, tras el evento donde hizo una demostración del nuevo chatbot de Google, las acciones de Alphabet se desplomaron. La empresa vio una caída del 7% en sus acciones, reduciendo el valor de mercado de la empresa en casi 100.000 millones de dólares.
2023: Marzo ChatGpt v4
2023: Mayo Bard v3 12 mil millones de parámetros
2023: Mayo Elon Mask anuncia su nueva empresa X.ai y TruthGPT
Deja una respuesta