Mostrando las entradas con la etiqueta Ciencias de la Computación. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Ciencias de la Computación. Mostrar todas las entradas

domingo, 4 de abril de 2021

Entrevista a Andrew Ng.

MIT Technology Review nos brinda una entrevista a Andrew Ng, fundador del equipo de Google Brain, quién fuera científico jefe de Baidu (algo así como un Google chino). Instructor de cursos muy seguidos sobre Machine Learning, y AI. 
Ahora, desde 2017 dirige Landing AI,  desde donde explora cómo las empresas sin datasets gigantes a los que recurrir aún pueden contribuir a la revolución de la inteligencia artificial.

Andrew NG. (Licencia Creative Commons Attribution 2.0 Generic)


lunes, 10 de diciembre de 2018

En IBM han construido una computadora cuántica de 50 cúbits.

A diferencia de la computación clásica, existe la computación cuántica  que se fundamenta en el uso de cúbits (en lugar de bits), y permite el uso de puertas lógicas diferentes que son la base de nuevos algoritmos. También la medida de complejidad puede ser diferente entre ambos paradigmas computacionales. Este hecho genera expectativas de que problemas que no se pueden tratar, con los recursos existentes, pudieran ser tratables cuando se construyan computadoras cuánticas de uso práctico.

La idea de la computación cuántica fue propuesta por Paul Benioff en 1981, quien sugirió que se podían aprovechar las leyes de la teoría cuántica en el dominio de la computación. En este paradigma no se trabaja a partir de voltajes eléctricos, sino a partir del cuanto. En la computación cuántica, las partículas pueden estar en superposición coherente: pueden ser 0, 1, y pueden también ser 0 y 1 a la vez.

Se usa el término cúbits que indica cuantos bits pueden estar en superposición. En el paradigma convencional si se tiene un registro de tres bits, este puede tomar uno de ocho valores posibles. En contraste, si se tiene un vector de tres cúbits sería posible manejar un total de ocho operaciones paralelas. En otras palabras, el número de operaciones es exponencial con respecto al número de cúbits.

Lo noticioso ahora es que investigadores en IBM han construido una computadora cuántica de 50 cúbits. También indican que la compañia ha puesto a disponibilidad en la nube un sistema cuántico de 20 cúbits. Según se dice en el reportaje, el sistema que IBM ha desarrollado sigue siendo extremadamente delicado y difícil de usar. Esto es válido igualmente para los sistemas que están construyendo otros. De parte de IBM el anuncio lo hizo Dario Gil, quien dirige el departamento de Inteligencia Artificial y Computación Cuántica.

Por otra parte Andrew Childs, profesor en la Universidad de Maryland, señala que la mayor cantidad de cúbits no se traduce necesariamente en un salto en la capacidad computacional. "Esos cúbits podrían ser ruidosos, y podría haber detalles en cuanto a que tan bien conectados están". Señala además que no se han dado a conocer detalles de la máquina en ninguna publicación arbitrada.

Máquina de 50-cúbits de IBM. (Imagen puede estar sujeta a Copyright) 


sábado, 19 de noviembre de 2016

La Medalla Presidencial de la Libertad otorgada a científicos en EE. UU.

El presidente Barack Obama va a premiar, el próximo 22 de Noviembre, a 21 ciudadanos con la Medalla Presidencial de la Libertad. Este reconocimiento, que se considera el más alto otorgado en los EE. UU., se otorga a personas que hayan hecho contribuciones meritorias a los intereses nacionales de su país. 

Entre las personas reconocidas se encuentran deportistas como Kareem Abdul-Jabar y Michael Jordan. También hay artistas de la música y el cine como Diana Ross y Robert Redford y otros famosos. Se incluyen líderes comunitarios como Elouise Cobell. La lista completa puede leerse en este enlace de la Casa Blanca

El interés de reportar el hecho en este blog se dirige a señalar que un grupo de científicos recibirán la distinción. Son ellos Richard Garwin, Margaret H. Hamilton y Grace Hopper.

Richard Garwin es un físico, que hizo su doctorado bajo la dirección de Enrico Fermi. Garwin fue el autor del diseño usado en la primera bomba de hidrógeno en 1952. Este científico ha trabajado en física nuclear y de bajas temperaturas, detección de radiación gravitacional, imágenes de resonancia magnética (MRI), sistemas computacionales, impresión laser y también como asesor presidencial en políticas de control de armas nucleares.

Richard Garwin 1980, A.T. Service  CC BY-SA 3.0
Margaret Hamilton es matematíco y computista, trabajó en desarrollo de software para la misión Apolo. Trabajó en software asíncrono, secuenciación  y sistemas de toma de decisiones que involucran al humano (human-in-the-loop). Actualmente dirige Hamilton Technologies Inc. Una foto suya, de pie junto a una pila de papel que contiene código impreso de la misión Apolo, se ha vuelto famosa.


Grace Hopper recibirá un premio póstumo pues falleció en 1992. Ella fue militar y computista. Estuvo involucrada en computación y desarrollo de programas entre los años 40 y 80 del siglo pasado. Colaboró en la construcción de la UNIVAC y en el desarrollo de compiladores, enseñó matemáticas en el Vassar College. 

By Unknown (Smithsonian Institution) (Flickr: Grace Hopper and UNIVAC) [CC BY 2.0 (http://creativecommons.org/licenses/by/2.0)]
Puede ser materia de debate si los premios son merecidos o forman parte de una política de Estado particular. Sin embargo, parece que el reconocimiento a personas distinguidas estimula el trabajo creador y motiva a nuevas generaciones a dedicarse a tareas necesarias para los países y la humanidad toda. 








viernes, 3 de junio de 2016

Demostración computarizada del problema de las ternas pitagóricas booleanas.

El problema de las ternas pitagóricas booleanas consiste en averiguar si es posible asignar uno de dos colores (por ejemplo, rojo o azul) a cada número entero, de modo que no haya ningún grupo de tres números a, b y c para los que se cumpla que a2 + b2 = c2 y que sean todos del mismo color. Ejemplos de ternas pitagóricas serían 3, 4 y 5 porque 9 + 16 = 25 entonces a los números 3, 4 y 5 no debería asignarse el mismo color para satisfacer las condiciones del problema. 

La revista Nature reporta que Oliver Kullmann  (Universidad de Swansea) y Victor Marek (Universidad de Kentucky en Lexington) encontraron una demostración asistida por computadora que requirió 200 Terabytes. La noticia para Nature es que esta es la demostración que ha requerido más memoria en la historia de este tipo de pruebas. La revista española Investigación y Ciencia divulga en castellano lo publicado en Nature. 

Lo que lograron probar los investigadores es que es posible colorear con dos colores todos los enteros hasta el número 7824, de manera que todas las ternas pitagóricas tengan un número de un color diferente. Probaron también que es imposible colorear el número 7825 sin que aparezca una terna pitagórica en la cual los tres números tengan el mismo color. Para la prueba usaron el paradigma Cube-And-Conquer (Eleva al cubo y conquista) y usaron un cluster de computadores de 800 núcleos en una corrida de dos días. Sus resultados los publicaron en arXiv.org.

Grilla de 7824 celdas que muestra una solución del problema de las
ternas pitagóricas (Imagen de Marijn Heule en Nature) 


martes, 31 de mayo de 2016

Daedalus, Origami de ADN automatizado.

El portal de noticias del MIT publica un reportaje de Helen Knight que informa sobre los avances en algoritmos para construir estructuras de ADN. Estas estructuras  de ADN,  de escala nanoscópica, se construyen en la práctica actual a partir de hebras de ADN mediante un proceso manual que es laborioso y complejo y se conoce como origami de ADN.

El desarrollo de un algoritmo que puede construir las nanopartículas de  ADN automáticamente es una novedad.

El algoritmo parte de una representación geométrica en 3D de la forma final del objeto y a partir de allí decide como debe ser ensamblada la estructura.

El líder del equipo de investigación es el profesor del MIT Mark Bathe, PhD,  quien dice que su estrategia cambia el problema que habitualmente consiste en que un experto diseñe el ADN necesario para sintetizar el objeto, a uno en el cual el objeto es el punto de partida y las secuencias necesarias las determina el algoritmo.  Declara además que su esperanza es que esta automatización haga más amplia la participación de otros en el paradigma de diseño molecular.

El algoritmo recibió el nombre de DAEDALUS (DNA Origami Sequence Design Algorithm for User-defined Structures), en referencia a Dédalo de la mitología griega cuyo oficio era el de arquitecto y artesano, a quien se le atribuía el diseño de laberintos.

Ahora el equipo investiga en el desarrollo de aplicaciones para las nanopartículas de ADN construidas por el algoritmo DAEDALUS. Una de esas aplicaciones es un andamio para péptidos virales y proteínas que pueden ser usadas como vacunas.

Superficies 3D  vs las representaciones basadas en ADN de diversas nanopartículas diseñadas por el algoritmo DAEDALUS. (Imagen de Digizyme)

domingo, 15 de mayo de 2016

Ley de Moore

La revista Technology Review del MIT trae un artículo escrito por Tom Simonite que titula Moore’s Law Is Dead. Now What? (La Ley de Moore está muerta. ¿Ahora qué?) donde analiza el presente y futuro de las computadoras y en general de dispositivos hechos con chips que incluyen transistores. 

Para los que no conocen la materia, la ley de Moore se debe a Gordon Moore quien en 1965 observó que los transistores, que son los elementos activos en un circuito integrado o chip, se estaban encogiendo tan rápidamente que cada año se podía duplicar el número de los que cabían en un chip. Luego en 1975 ajustó su relación a la duplicación en dos años en vez de uno.  

Esa predicción de Moore se ha mantenido y al crecer el número de transistores en un chip la industria ha encontrado que hacer con ellos. Intel ha sido una de las compañías que ha hecho presión en el ritmo de crecimiento, pero ahora ha decidido incrementar el tiempo entre generaciones y ha sugerido que los transistores de silicio solo pueden seguir reduciendo el tamaño por otros cinco años. 

Una de las áreas que se vería afectada por la falta de crecimiento en número de transistores por chip es la de los centros de datos pues la demanda seguirá creciendo.  El artículo sugiere que los arquitectos de la computación tendrán que trabajar en mejorar el diseño de los chips para obtener mayor poder de cómputo y también para hacer chips que se especialicen en acelerar algoritmos cruciales.  Se van a requerir chips afinados para el álgebra relacionada con técnicas poderosas de aprendizaje de máquina en lo cual ya está trabajando la compañía de tarjetas gráficas Nvidia, entre otras. 

Muchos retos por delante para la industria y las ciencias de la computación.

Patrón de chip Skylake (Dominio Público @Intel)

miércoles, 2 de marzo de 2016

Pioneros de la Encriptación de Datos ganan Premio A. M. Turing de la ACM

Whitfield Diffie y Martin Hellman recibieron en días pasados el premio A.M. Turing otorgado por la Association for Computing Machinery debido a su trabajo en el esquema de encriptación de datos que es ampliamente usado en Internet.

El premio en cuestión es llamado por algunos el “Premio Nobel en Computación” y cubre una cantidad en metálico de un millón de dólares ($ 1.000.000,00).

Whitfield Diffie es actualmente un académico asesor en el CISAC (Center for International Security and Cooperation) de la Universidad de Stanford. Aparte de su trabajo con Hellman ha trabajado desde los 90 en la defensa del derecho de los individuos y las empresas a usar encriptación de datos. Es coautor con Susan Landau del libro Privacy on the Line: The Politics of Wiretapping and Encryption.

Martin Hellman es profesor emérito de Ingeniería Eléctrica de Stanford, y ha sido parte del debate global sobre seguridad de datos.

Lo que Diffie y Hellman llamaron criptografía de llave pública (public key criptography) comenzó con una publicación de 1976 titulada New Directions in Criptography, publicado en la IEEE Transactions on Information Theory (Volume: 22, Issue: 6), donde definieron una metodología para una nueva técnica revolucionaria. Esta técnica permitiría a la gente comunicarse sobre un canal abierto, sin nada prearreglado, y mantener su información en secreto a pesar de posibles intentos de escucha no autorizada.

Un campo del conocimiento bastante interesante para las ciencias de la computación, las matemáticas y las comunicaciones, entre otras.

Chuck Painter/Stanford News Service

miércoles, 13 de enero de 2016

¿Podría la Inteligencia Artificial Resolver los Problemas más Grandes del Mundo?

Un artículo publicado este enero en la revista MIT Technology Review trae a consideración la pregunta que titula esta entrada. La información fue recopilada en un evento organizado por la Universidad de Nueva York (New York University) y empresas con interés en el área de Inteligencia Artificial que incluyen a Google y Facebook. 

Para quien el término todavía resulte novedoso, la inteligencia artificial (IA) es una disciplina que con apoyo en las ciencias de la computación, la matemática y la filosofía, persigue la creación de sistemas capaces de resolver problemas imitando la inteligencia humana.  

Existe la inquietud sobre que tan cerca estamos de que la Inteligencia Artificial pueda encontrar respuestas útiles a esos problemas que presionan a la humanidad. 

Citan a ErichSmicht, presidente ejecutivo de Alphabet Inc, argumentando que la Inteligencia Artificial podría ser usada para resolver problemas tales como el cambio climático y la seguridad alimentaria.

Demis Hassabis, de Google Deepmind, que es un departamento dentro de Google para realizar trabajos pioneros en Aprendizaje de Máquina, afirma que “ Si se puede resolver la inteligencia de una manera suficientemente general, entonces se podrá aplicar a toda clase de cosas para hacer del mundo un mejor lugar”.

Por su parte el director de tecnología de Facebook, Mike Schroepfer, se expresó de manera similar “ El poder de la tecnología de Inteligencia Artificial es que puede resolver problemas que son escalables a todo el planeta”.

Entre los avances que se mencionan en el artículo se encuentran el reconocimiento de contenidos en imágenes, o mantener conversaciones cortas por medio de texto o voz. Lo que sugiere que podría cambiar la forma como se usan los computadores en las industrias. No se ha puesto de forma explícita, sin embargo, como se iría de asignar etiquetas a imágenes a resolver problemas como la pobreza o el cambio climático.

Schroepfer, el de Facebook, puso de relieve la necesidad de no elevar demasiado las expectativas pues es necesario resolver unas dos docenas de problemas abiertos antes de que las máquinas puedan alcanzar los niveles de la inteligencia humana.

También se mencionan problemas relacionados con la ética y las implicaciones a largo plazo del uso de estas tecnologías.

Les dejo un vídeo (en inglés) que ilustra una conversación un poco graciosa entre dos bots o robots.


miércoles, 26 de agosto de 2015

Enseñándole a las Máquinas a Entendernos

La revista Technology Review del MIT trae un artículo de Tom Simonite con el título Teaching Machines to Understand Us, sobre el tema de una tendencia en la Inteligencia Artificial. El artículo es bastante extenso y no se pretende aquí cubrir todos los detalles que Simonite explora.

Aunque la idea de la Inteligencia Artificial es algo antigua ya y tiene orígenes en los años 50 del siglo pasado, el artículo comienza recordando como en el año 1995 el investigador francés Yann LeCun tenía la idea de que imitar ciertas características del cerebro era la mejor forma de hacer máquinas inteligentes. LeCun, trabajando con Bell Labs, logró hacer software que simulaba, de forma aproximada, neuronas para leer texto manuscrito después de revisar un número de ejemplos. Este tipo de software se pudo aplicar a la lectura automatizada de cheques y planillas bancarias escritas a mano y se pensaba que era el comienzo de un desarrollo que lograría tener muchas otras aplicaciones limitadas hasta el momento a los humanos.

Simonite escribe sobre como el campo, que ahora se ha venido llamando Aprendizaje Profundo (Deep Learning), está ahora muy activo en un competencia dura entre compañías como Google, Facebook, IBM y Microsoft. LeCun trabaja ahora para Facebook en el Grupo de Investigación en Inteligencia Artificial (FAIR) después de haber estado mucho tiempo en New York University. 

Se argumenta que con el Aprendizaje Profundo se ha logrado tener sistemas para reconocimiento de imágenes y rostros casi tan exactamente como lo haría un humano. La meta actual de LeCun es producir software con capacidades de lenguaje y de sentido común suficientes para sostener una conversación. Esto mejoraría enormemente la accesibilidad y la interacción general con las máquinas.

Dado que el trabajo de LeCun se está haciendo en Facebook, podríamos esperar que esta red social sea pionera en este tipo de interacción mediante una conversación natural.