Category Archives: tecnología

Atocatl: una supercomputadora que mira al cosmos

 
Facebooktwittergoogle_plusmail

1 de julio 2011

Sin título-1• Coordina un gran número de procesadores que trabajan en conjunto para resolver un mismo problema

• El potente ordenador del Instituto de Astronomía de la UNAM simulará el universo para ayudar a los astrónomos a entender qué sucede en él

El Instituto de Astronomía (IA) de la UNAM inauguró Atocatl, uno de los equipos de cómputo de más alto rendimiento del país: un conjunto de más de 200 microprocesadores que trabajarán al unísono para desentrañar los misterios del Universo.

Los clusters computacionales son conjuntos de procesadores como los de nuestras computadoras personales, pero que trabajan de forma coordinada, con lo que multiplican la capacidad de cálculo computacional.

A finales de los años 60, un arquitecto en computación que laboraba para IBM, Gene Amdahl, sentó las bases para operar varias computadoras paralelamente y así resolver un mismo problema. Mientras que en el aspecto serial se procede mediante un pequeño paso tras otro para llegar al resultado, estos clusters dividen el problema y ponen a trabajar cada uno de sus procesadores en cada una de las tareas en las que se ha dividido, con lo que multiplican su efectividad.

Los programadores de este tipo de máquinas parecen haber aprendido bien la famosa máxima “divide y vencerás”, que hace más de dos mil años adoptara el emperador romano Julio César para extender su imperio y que hoy da nombre a un conjunto de algoritmos, D&V, usados en paralelización de procesos.

En las últimas cinco décadas, los arquitectos en este ámbito han diseñado frenéticamente ensambles cada vez más y más complejos.

Hoy, la más grande de éstas se encuentra en Laboratorio para Ciencia Computacional RIKEn, en Japón, K-Computer, que paraleliza desde junio más de 68 mil 500 procesadores y su potencia de cálculo equivale a ocho mil 200 billones de operaciones por segundo: como si todos los habitantes de un millón de planetas como el nuestro hicieran un cálculo matemático cada segundo.

En México, la UNAM ha liderado esta carrera con importantes frutos, tanto para el sector público como para el privado. El Instituto de Astronomía fue precursor, junto con otros investigadores de esta casa de estudios, en el diseño e instalación de los primeros clusters de computadoras.

La Universidad Nacional alberga en la actualidad diversos equipos de alto desempeño, el más grande de ellos Kan Balam, en la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC).

En funcionamiento desde 2007, cuenta con mil 368 procesadores, y al momento de su inauguración, figuraba entre las 30 más poderosas a nivel mundial en instituciones de educación superior.

Sin embargo, debido a la cantidad de trabajos que se realizan en el IA, era necesario contar con una supercomputadora propia y no depender del tiempo asignado a los equipos de la DGTIC. Por ello, con la entrada en funciones de Atocatl, se espera detonar diversos proyectos, establecer más colaboraciones y estrechar la comunicación con las sedes que tiene el IA en provincia, como la de Ensenada.

Atocatl: el pulpo de una cabeza con cientos de cerebros…

De esta manera, el Instituto de Astronomía albergará el más moderno de los clusters de computadoras de la UNAM: Atocatl. El nombre con el que se bautizó tiene origen náhuatl y significa pulpo.

Está inspirado en el híbrido diseño con el que se concibió y que permitió a esta gran cabeza de muchos cerebros desempeñar tareas de naturaleza muy distinta. El cluster paralelizará 216 procesadores CPU (Unidad Central de Procesamiento, en inglés), iguales a los que comandan las más sofisticadas computadoras personales.

Para comunicarse entre ellos, Atocatl cuenta con una conexión de fibra óptica de última tecnología que hace prácticamente instantánea la sincronización.

Otra de las capacidades es la de almacenaje y manejo eficaz de grandes bases de datos que, en su primera fase, será de 40 terabytes (en la que podríamos grabar unos 10 millones de canciones), y que se espera quintuplicará para antes de 2012.

Pero la característica más innovadora del cluster del IA es la utilización de procesadores de tipo GPU (Unidad de Procesamiento Gráfico en inglés) diseñados especialmente para procesar los gráficos de los videojuegos y que actualmente se consideran más potentes que los CPU.

Sólo recientemente se han empezado a introducir este tipo de procesadores para cálculos científicos y ésta es la primera de las computadoras híbridas que trabajará para el desarrollo de la ciencia en México.

Desde su fase de diseño, Atocatl ha sido concebido con la idea de hacerlo crecer: antes de que termine el año, contará con un total de ocho potentes GPU, 288 procesadores CPU y 200 terabytes para almacenamiento de datos, pero está diseñada para triplicar sus capacidades con la misma infraestructura.

También, el equipo responsable ha tenido en cuenta el cuidado del medio ambiente al diseñar una que trabaje con una potencia más limitada que sus predecesoras.

El equipo ha sido financiado a partes iguales por Conacyt y la Universidad Nacional Autónoma de México.

Los investigadores del Instituto de Astronomía, Magdalena González, Octavio Valenzuela y Bárbara Pichardo, también secretaria Académica del instituto, responsables de coordinar las operaciones del proyecto, reafirman la filosofía cooperativa del proyecto que aúna el esfuerzo de un nutrido número de instituciones, con la destacada participación de la Coordinación de la Investigación Científica y el Posgrado en Ciencias (Astronomía) de la UNAM.

De hecho, Atocatl será usado para capacitar estudiantes de posgrado en el uso y desarrollo de proyectos de supercómputo. Los investigadores involucrados en el proyecto, al igual que el potente ordenador que han creado, se coordinaron armónicamente para inaugurar el proyecto en el tiempo previsto.

Un proyecto que crece rápido

La investigadora Magdalena González Sánchez explicó que en septiembre de 2009 se solicitó al Conacyt, a través de la Convocatoria de Actualización de Equipo Institucional, un equipo de cómputo de alto desempeño con tres partes “o tentáculos, como nos gusta decirles”: un cluster para cálculo numérico, un sistema para procesamiento y manejo/almacenamiento de grandes bases datos y una parte experimental que utiliza procesadores GPU.

“Y desde ahí todo se dio con rapidez, en marzo de 2010 la solicitud del Conacyt fue aprobada; en mayo, el IA aprobó el proyecto y lo consideró institucional; en agosto llegó el dinero; en enero ya teníamos el equipo y desde entonces, hasta hoy que ya está listo, nos dedicamos a instalarlo y configurarlo”, explicó.

La supercomputadora se encuentra en el cuarto 227 del IA, recinto en el que se realizaron diversos trabajos, como aislarlo del ruido, colocarle un switch de Internet o instalar un sensor de temperatura. “Deliberadamente escogimos un espacio sobrado para las características actuales del aparato, porque queremos hacerlo crecer”.

Atocatl apenas entró en funciones y ya son varios los científicos interesados en participar en este proyecto y en utilizar esta herramienta.

Para definir cómo se hará esto se integró el CADAC (Comité Académico para el Desarrollo, Uso y Aprovechamiento del Supercómputo), conformado por seis expertos que durarán en el cargo dos años, y que se encargarán de administrar el equipo y repartir tiempos de empleo entre los usuarios.

“El objetivo es involucrar a cada vez más personas; dar cabida a la mayor cantidad posible de proyectos, pero de forma organizada, y hacer crecer cada uno de los tentáculos de este pulpo”, acotó Bárbara Pichardo.

… y con diversos brazos

La tarea fundamental, uno de los tentáculos de Atocatl, es la de recrear un universo al simular de acuerdo a las teorías más actuales de los astrónomos.

Los resultados se compararán con observaciones de telescopios para corroborar las teorías de, por ejemplo, cómo se formó el cosmos, cómo evoluciona, cómo es la colisión de dos galaxias o la vida y la muerte de una estrella.

Todas estas reconstrucciones requieren gran potencia y larguísimos periodos de cálculo. Atocatl hará corta la espera a los astrónomos, o mejor aún, permitirá hacer estudios con un nivel de precisión nunca antes alcanzado en México.

Pero no se diseñó como un robot de un solo brazo: entre sus tareas destaca la del almacenamiento y gestión de bases de datos astronómicos, tanto observacionales como teóricas.

El IA participa en diversos observatorios nacionales e internacionales que generan una inmensa cantidad de información que debe ser almacenada y analizada, y busca, al mismo tiempo, insertarse en la red mundial de Observatorios Virtuales, un conjunto de centros con colecciones de datos que facilitan este tipo de estudios.

Créditos: UNAM-DGCS-379-2011/unam.mx

Horus, una supercomputadora única creada por especialistas del centro de geociencias

 
Facebooktwittergoogle_plusmail

30 de junio 2011

Sin título-1• Conformada por 228 procesadores en línea, fue diseñada para estudiar procesos geodinámicos a través de modelado numérico

• Se complementa con el Centro de Visualización en 3D-GeoMatrix, también del Laboratorio de Geodinámica Computacional, del CGeo de la UNAM

Es como un cuerpo; está formada por varias partes, pero funciona como una sola. Así es la supercomputadora HORUS, única en su tipo y creada por especialistas del Centro de Geociencias (CGeo), campus Juriquilla, de la UNAM.

El conjunto de servidores de alto rendimiento está conectado por una red de alta velocidad, que la hace trabajar como uno solo, indicó el especialista Vlad Manea. “Desde un principio hemos perfeccionado esta máquina, progresivamente, y no hemos parado de hacerlo”.

Con apoyo de diversos proyectos de la UNAM y del Consejo Nacional de Ciencia y Tecnología, se creó el Laboratorio de Geodinámica Computacional (LGC), además de que se le acondicionó un cuarto.

“HORUS posee 228 procesadores en línea, que pretendemos incrementar en más de 300, y la memoria RAM a más de 700 GB. El recinto donde se ubica tiene un enfriado especial (de 19° a 20° centígrados y 50±10% de humedad), pues siempre está prendida”.

La máquina se aboca a estudiar procesos geodinámicos a través de modelado numérico, que en este caso es efectuado a partir de la división de la zona de estudio en volúmenes de menor tamaño, a semejanza de un cubo Rubik.

Es como si una caja estuviera llena de cubos pequeños y en cada uno se tuviera la propiedad de estudiar elementos y situaciones distintas, como la temperatura, viscosidad o composición de un elemento. La información que corresponde a un cierto número de volúmenes es trabajada por un procesador. Entre más se usan, más rápido se puede realizar la modelación numérica.

“Debemos imaginar que la caja está compuesta por millones de estos cubos, y que en cada uno hay una solución matemática. Trabaja de un modo particular, pues en vez de resolver la caja completa, lo hace por partes, al mismo tiempo, para agilizar tiempos y procesos”, explicó.

“Utilizamos física-matemática, mezcla entre ambas materias, y la programación. Con ello, estudiamos los procesos que ocurren a profundidades poco accesibles para los humanos”.

Para concluir, Vlad Manea anunció que en los próximos meses se aumentará el poder de cálculo de HORUS en 40 por ciento, pues se incrementarán los procesadores con un nuevo proyecto.

Buscan develar secretos del vulcanismo y sismicidad

Por su parte, Marina Manea, también especialista del CGeo, detalló que se realiza modelado numérico de los procesos de subducción para saber qué pasa con el vulcanismo y cómo se produce. “Queremos averiguar de dónde proviene el magma y cuál es la causa de la sismicidad profunda en México”.

Analizamos procesos que ocurren a 80 ó 100 kilómetros bajo tierra y trabajamos con este tipo de simulación; ésta es un área nueva, pues antes no se contaba con la tecnología actual.

“El ordenador se complementa con el Centro de Visualización en 3D-GeoMatrix (también del LGC), en éste investigamos en tercera dimensión los modelos creados en la supercomputadora”.

El centro cuenta con una televisión con capacidad 3D. Los modelos creados por HORUS pasan por un programa especial para ser visualizados en la pantalla, con la ayuda de anteojos especiales con cristales líquidos.

Antes, dijo, se realizaba en dos dimensiones, eso era limitado. Para tener una visión más amplia y mayor entendimiento de los procesos geodinámicos complejos, la tercera dimensión es lo ideal.

A su vez, también trabajamos con modelos 4D, es decir, tres dimensiones, más el tiempo. Podemos ver la evolución de los modelos en función de este último factor.

La especialista informó que cuentan con una página en línea (http://www.geociencias.unam.mx/geodinamica/geoservices/geoservices.php) en la que se puede encontrar información con relación a lo que se trabaja en el momento, además de programas que corren en línea.

Créditos: UNAM-DGCS-379-2011/unam.mx

Proyecto de alumnos del programa académico de Ing. Mecatrónica ganan en la etapa regional de la expociencias Pacífico 2011

 
Facebooktwittergoogle_plusmail

20 de junio 2011

arbolitos_ban

Los días 1 al 4 del presente mes, tuvo lugar  en el Centro de Convenciones de  este   puerto, la etapa final de la EXPOCIENCIAS REGIONAL PACÍFICO 2011, donde alumnos de nivel preescolar hasta nivel superior, procedentes de los estados de Sinaloa ,Nayarit, Colima, Baja California sur y Sonora, dieron a conocer sus proyectos en áreas de ciencia y tecnología; Se presentaron  180 trabajos  al público en general de los cuales la UPSIN  presentó 4 proyectos, 2 del programa de Ing. en Informática y 2 de Ing.Mecatrónica, desarrollados por alumnos en conjunto con sus  asesores.

En dicho evento  resultó ganador en nivel superior en la categoría de Mecatrónica (MT) el proyecto denominado “PANTALLA INFORMATIVA”, presentado por los alumnos:

JORGE ALFREDO GIL VÁZQUEZ, MIGUEL ANGEL PAREDES MAGAÑA, RAMÓN VALDÉZ AGUIRRE y ERICK ALEXANDER ZEPEDA BURGOS, teniendo como asesor  a la M.C Dora A. Rodríguez.

Cabe mencionar que dicho  proyecto  fue acreditado para  formar  parte de la Delegación Regional Pacífico que participará en la ExpoCiencias Nacional 2011 cuya sede será el  World Trade Center  de  la Cd. de México del 24-28 de octubre de 2011.

Con el propósito de que la Universidad Politécnica de Sinaloa sea una institución comprometida con el mejoramiento de su entorno y en el marco del día mundial del Medio Ambiente se llevó a cabo una arborización del perímetro interior de la misma.

El encargado de dar por iniciadas las actividades de la colocación de los árboles, fue Tomás Valenzuela, secretario particular de la rectoría quien además funge como líder de la brigada verde de la UPSIN, comentó.

“Esta jornada de arborización es con el propósito de mejorar el entorno de la universidad, al mismo tiempo que se busca crear conciencia en la comunidad universitaria en la necesidad de ayudar en el mejoramiento del planeta con actividades como esta y que mejor que hacerlo en el día mundial del medio ambiente”.

Así mismo se comentó en esta fase de la campaña se plantaron cerca de 500 árboles, que se tuvieron gracias a la dotación en especie de distintas instituciones tanto gubernamentales como privadas, las cuales además se comprometieron a seguirán apoyando este programa de arborización en sus distintas fases.

Cabe mencionar que para un mejor manejo y mantenimiento de estos árboles, se busco que fueran nativos de esta región como el nim y la amapa, entre otros.

Por último, se pudo observar el gran interés que tienen los universitarios por mejorar su medio ambiente,  al acudir y sembrar los 500 árboles que se tenían como meta en la primera etapa de la arborización de la UPSIN.

Créditos: www.upsin.edu.mx/

Aumenta participación en programas de Divulgación Científica

 
Facebooktwittergoogle_plusmail

13 de junio de 2011

El impacto que han alcanzado los programas de fomento a las vocaciones científicas impulsados por la Benemérita Universidad Autónoma de Puebla, se refleja no sólo por el incremento en el número de participantes, sino también por los lugares de procedencia de los alumnos, afirmó José Eduardo Espinosa Rosales, Director de Divulgación Científica de la VIEP- BUAP.

Destacó que tan sólo para el programa Verano de Talentos IX, que es dirigido a estudiantes de bachillerato de todas las instituciones del Estado, el crecimiento de alumnos con relación al año pasado alcanzó un 70 por ciento; lo que implica un apoyo a 201 becarios provenientes de Puebla capital y diversos municipios, como Huixcolotla y Molcaxac, entre otros.

Espinosa Rosales, informó que a partir del 20 de junio y hasta el 20 de julio, los estudiantes beneficiados realizarán una estancia académica con un profesor investigador de la BUAP, a quien apoyarán en su trabajo diario, actividad que les dará la oportunidad de visualizar su futuro al seleccionar una carrera profesional.

Con relación al programa La Ciencia en tus Manos XI, dirigido a estudiantes de licenciatura de la BUAP, que inició el 30 de mayo, agregó que se registró un incremento del 15 por ciento, así como el número de aspirantes de unidades regionales.

El Director de Divulgación de la BUAP, abundó que para los estudiantes de licenciatura participar en proyectos reales, bajo la supervisión de un investigador reconocido, representa una experiencia invaluable, sobre todo por que amplía sus conocimientos y opciones futuras de formación profesional.

Para el programa de 2011, la Facultad de Ciencias Químicas fue la Unidad Académica que ubicó a un mayor número de alumnos con 33, seguida de las facultades de Medicina y Físico Matemáticas con 24 estudiantes cada una, y destacó el aumento de participación en Ingeniería Agrohidráulica, que de cuatro alumnos que registró en 2010, este año aumentó a 21.

Comentó que el incremento del espectro de solicitudes en cantidad y lugares, es reflejo del trabajo que en materia de difusión se ha implementado desde la Dirección de Divulgación Científica, así como del interés que han despertado estos programas entre la comunidad estudiantil.

Dio a conocer que las becas consisten en una asignación de mil pesos para alumnos de bachillerato y de dos mil pesos para los de licenciatura; en caso de estudiantes foráneos se da apoyo adicional.

Resaltó el esfuerzo que hay detrás de estos programas, desde la publicación de convocatorias, su difusión, la selección de estudiantes que cumplen los requisitos, así como la asignación de investigadores; esfuerzo que concluye con la presentación de resultados en trabajos de cartel que para este año se prevé sea el 14 de septiembre, en el Complejo Cultural Universitario.

Créditos: BUAP/Comunicación Institucional/buap.mx

Ante un desastre natural la tecnología aporta soluciones

 
Facebooktwittergoogle_plusmail

13 de junio de 2011

Con el uso de la tecnología la arquitectura puede prevenir y mitigar desastres naturales en el hábitat construido, así como contribuir con el desarrollo adecuado de recursos económicos y energéticos, señaló el doctor Andrés Olivera Ranero, profesor del Departamento de Arquitectura y Director del Instituto Virtual de Desastres en la Universidad Central de las Villas en Cuba.

Al impartir su conferencia magistral La Arquitectura en las respuestas a los desastres: Tecnología y Sustentabilidad, en el inicio del Foro Latinoamericano “La Tecnología en la Arquitectura: Experiencias y Retos” que realiza la Facultad de Arquitectura de la BUAP, puntualizó que:

“La arquitectura post-desastre para que sea sustentable y evite la reproducción de riesgos en el hábitat, debe responder a los siguientes retos: ser expedita sin ser efímera, social sin ser rudimentaria, pero sobre todo, ser económica e innovadora”.

El académico aseveró que es importante comprender la relación entre tecnología y sustentabilidad, ya que ambos conceptos forman parte de la respuesta en la construcción de un hábitat.

Puso como ejemplo al huracán Kate que en 1985 afectó a la isla de Cuba donde destruyó muchas viviendas; para enfrentar el desastre que originó, se aplicaron dos estrategias tecnológicas:

“La primera fue relocalizar a las familias afectadas a 12 kilómetros del área de desastre, donde dos años más tarde se construyeron edificios en los que se utilizó prefabricación pesada de Grandes Paneles, con la intención de que en un futuro este sitio fuera habitado”.

La segunda estrategia “fue utilizar tecnologías modernas en la zona de desastre para la autoconstrucción de viviendas, utilizando materiales de la localidad y energías renovables, lo que permitió a los pobladores regresar a su comunidad natal”.

Al explicar el ciclo de reproducción del riesgo en la reconstrucción post-desastre, el doctor Olivera Ranero indicó que debe considerarse el protagonismo de la población, la activación económica local mediante la generación de empleos y la minimización del impacto ambiental local de los materiales que se empleen en la recuperación.

También intervienen la racionalidad energética de la vivienda, el uso de materiales y productos locales, la adaptabilidad de éstos en el contexto y el fomento de la mano de obra de la comunidad en cuestión, mencionó el investigador.

Por otra parte, la doctora Dora María Artiles López, organizadora del Foro Latinoamericano destacó que éste abre un debate acerca de la articulación entre tecnología y arquitectura, considerando las implicaciones medioambientales, económicas, socioculturales y psicosociales.

Por lo que se espera “lograr un intercambio de experiencias y la actualización de conocimientos en torno a la arquitectura y el uso de la tecnología, la investigaciones sobre el problema del hábitat y su repercusión social, así como los problemas que enfrentan los profesionales de la arquitectura”, enfatizó.

Créditos: BUAP/Comunicación Institucional/buap.mx