Tag Archives: eléctrica

Por su ubicación, Colombia tiene alta densidad de rayos.

 
Facebooktwittergoogle_plusmail

Colombia está ubicada en una zona de alta actividad eléctrica.
Colombia está ubicada en una zona de alta actividad eléctrica.

5 de Noviembre del 2012

Según la NASA, por sus características geológicas y meteorológicas, el territorio nacional se presta para la formación de tormentas y una actividad eléctrica atmosférica muy intensa.

Los rayos se estudian desde hace más de 300 años, pero aún se desconoce mucho sobre su naturaleza. Son creadores de vida, pero también pueden hacer daño. Por tanto, es necesario saber convivir con ellos.

En su proceso de ascenso a profesor titular, Camilo Younes Velosa, decano de la Facultad de Ingeniería y Arquitectura de la UN en Manizales, presentó la conferencia “Parámetros del rayo en una zona tropical”. En esta resumió los resultados de cerca de veinte años de investigación de este fenómeno y sus particularidades.

“En zonas como el Bagre (Antioquia), las estribaciones de la Serranía San Lucas y Nechí, lugares del Magdalena medio (como Puerto Berrio y el Cerro del Perijá en inmediaciones de Ocaña), entre otras, hay una altísima actividad eléctrica atmosférica. Las razones de esta situación aún son objeto de estudio. Incluso hay teorías que hablan de efectos relacionados con rayos cósmicos, con la forma como estos ingresan y las tormentas solares en el planeta”, explicó.

Colombia es un país en el que la descarga es intensa y demanda un estudio particular. Según el profesor Younes, por esta causa son muchísimas las personas que mueren anualmente y se presentan daños en los sistemas eléctricos, electrónicos y de telecomunicaciones. Además, las pérdidas anuales de las empresas ascienden a miles de millones de dólares.

Por eso, es indispensable estudiar, caracterizar y parametrizar este fenómeno, con miras a ofrecer una protección adecuada.

Entre estos parámetros, uno de los más relevantes es la densidad de descargas a tierra. Es decir, cuántos rayos caen en un área específica medida por kilómetro cuadrado en un año.

Para dimensionar la alta actividad que tiene Colombia en este fenómeno, puede considerarse que, en el corredor de rayos de la Florida (una de las zonas de Estados Unidos donde se presenta con mayor frecuencia), la densidad es de 16 rayos/km2 al año; mientras que, en nuestro país, hay sitios en donde es de 60 a 80.

También sobresale la intensidad de la corriente por la amplitud de la onda del rayo, que provoca valores un poco más grandes en las curvas de distribución.

Mientras que en otros lugares del mundo es de 30 y 35 kA (kiloamperios), en Colombia está entre 5 y 10 kA más. Esto hace necesario tener medidas de protección más fuertes en sistemas eléctricos, electrónicos y de telecomunicaciones.

Para el investigador, los retos están relacionados con el cambio climático, pues, a raíz de ello, aumentará la intensidad del fenómeno.

Créditos:http://www.agenciadenoticias.unal.edu.co/inicio.html

Nuevo método para evaluar procesos de Ingeniería Eléctrica

 
Facebooktwittergoogle_plusmail
18 de Septiembre del 2012
Docentes de la UN en Manizales desarrollaron técnicas de valoración de la práctica de la Ingeniería Eléctrica, para calificar los procesos de aplicación de esta disciplina.
A partir del trabajo desarrollado con Thernium y la CHEC (Central Hidroeléctrica de Caldas), la UN desarrolló una metodología de evaluación aplicada a procesos de generación, distribución y transmisión de energía, pues en la dinámica de ambos proyectos se evidenció que el país no cuenta con una base en este sentido.
“Queremos proporcionar un modelo que permita calificar los procesos que hace una empresa o un conjunto de ingenieros electricistas en tareas propias de esta profesión, como la operación de redes de distribución de energía, la instalación de redes subterráneas, proyectos residenciales, procesos de generación, entre otros”, afirma el profesor Eduardo Cano Plata, de la UN en Manizales.
El procedimiento consiste en evaluar, con el marco regulatorio colombiano, una lista básica de elementos que van acompañados de su normativa y de un articulado que especifica cómo debe ejecutarse determinada labor, comparándola con el quehacer de la empresa. Finalmente, la UN indica si lo está haciendo bien o mal y cómo podría mejorar.
Entre sus componentes particulares está la aplicación de los métodos tradicionales de esta disciplina, que implican la valoración de las buenas prácticas (como verificar que los sistemas eléctricos cuenten con polo a tierra y que haya interruptores que protejan a las personas en caso de un corto circuito en zonas húmedas, como baños, entre otras).
“Esta metodología es una interacción entre lo que podría llamarse un panel de expertos y un híbrido de un proceso de inspección desde el punto de vista del reglamento de instalaciones eléctricas del país. A este se suma una valoración de ambos aspectos según la normativa que regula el proceso que se esté ejecutando. Al final se entrega un concepto que se adjunta al trabajo del auditor tradicional para evaluar la calidad”, explica el investigador.
El marco regulatorio para efectuar tal procedimiento surgió con la Constitución de 1991, pero comenzó en el año 1994 con la ley de servicios públicos y la del sector eléctrico.
De allí se derivaron una serie de normativas, un cuerpo colegiado que se encarga de definir los procesos de generación de energía en el país a partir de un manual regulatorio y suplementos del Congreso y de entidades como la Superintendencia de Servicios Públicos y el Ministerio de Minas y Energía.
“Dentro de este mar de normas que tienen que estar en consonancia con el marco regulatorio descubrimos que algunos puntos son contradictorios. Por eso, podremos hacer sugerencias al ente regulador para que vea el listado que estamos desarrollando con la metodología”, concluye el profesor Cano Plata.
Créditos: http://www.agenciadenoticias.unal.edu.co/inicio.h
La UN diseño una metodología de técnicas de evaluación para al Ingeniería Eléctrica.

La UN diseño una metodología de técnicas de evaluación para al Ingeniería Eléctrica.

18 de Septiembre del 2012

Docentes de la UN en Manizales desarrollaron técnicas de valoración de la práctica de la Ingeniería Eléctrica, para calificar los procesos de aplicación de esta disciplina.

A partir del trabajo desarrollado con Thernium y la CHEC (Central Hidroeléctrica de Caldas), la UN desarrolló una metodología de evaluación aplicada a procesos de generación, distribución y transmisión de energía, pues en la dinámica de ambos proyectos se evidenció que el país no cuenta con una base en este sentido.

“Queremos proporcionar un modelo que permita calificar los procesos que hace una empresa o un conjunto de ingenieros electricistas en tareas propias de esta profesión, como la operación de redes de distribución de energía, la instalación de redes subterráneas, proyectos residenciales, procesos de generación, entre otros”, afirma el profesor Eduardo Cano Plata, de la UN en Manizales.

El procedimiento consiste en evaluar, con el marco regulatorio colombiano, una lista básica de elementos que van acompañados de su normativa y de un articulado que especifica cómo debe ejecutarse determinada labor, comparándola con el quehacer de la empresa. Finalmente, la UN indica si lo está haciendo bien o mal y cómo podría mejorar.

Entre sus componentes particulares está la aplicación de los métodos tradicionales de esta disciplina, que implican la valoración de las buenas prácticas (como verificar que los sistemas eléctricos cuenten con polo a tierra y que haya interruptores que protejan a las personas en caso de un corto circuito en zonas húmedas, como baños, entre otras).

“Esta metodología es una interacción entre lo que podría llamarse un panel de expertos y un híbrido de un proceso de inspección desde el punto de vista del reglamento de instalaciones eléctricas del país. A este se suma una valoración de ambos aspectos según la normativa que regula el proceso que se esté ejecutando. Al final se entrega un concepto que se adjunta al trabajo del auditor tradicional para evaluar la calidad”, explica el investigador.

El marco regulatorio para efectuar tal procedimiento surgió con la Constitución de 1991, pero comenzó en el año 1994 con la ley de servicios públicos y la del sector eléctrico.

De allí se derivaron una serie de normativas, un cuerpo colegiado que se encarga de definir los procesos de generación de energía en el país a partir de un manual regulatorio y suplementos del Congreso y de entidades como la Superintendencia de Servicios Públicos y el Ministerio de Minas y Energía.

“Dentro de este mar de normas que tienen que estar en consonancia con el marco regulatorio descubrimos que algunos puntos son contradictorios. Por eso, podremos hacer sugerencias al ente regulador para que vea el listado que estamos desarrollando con la metodología”, concluye el profesor Cano Plata.

Créditos: http://www.agenciadenoticias.unal.edu.co/inicio.html

Energía limpia y abundante, a partir de la fusión nuclear

 
Facebooktwittergoogle_plusmail

En el futuro, los reactores de fusión nuclear podrían resolver los problemas cada vez más apremiantes de abastecimiento de energía eléctrica
En el futuro, los reactores de fusión nuclear podrían resolver los problemas cada vez más apremiantes de abastecimiento de energía eléctrica.

27 de Julio de 2012

Cada minuto, hora, día que pasa, las fuentes tradicionales de energía, es decir, los combustibles fósiles como el petróleo, el gas natural y el carbón, se agotan. De ahí que la fusión nuclear se perfile como una de las opciones más viables para resolver, en el futuro, la crisis energética mundial.

Aunque el desarrollo de la tecnología para replicar a gran escala la misma reacción que genera energía en el Sol todavía está en sus primeras fases, científicos de todo el mundo, entre ellos Heriberto Pfeiffer Perea, del Instituto de Investigaciones en Materiales (IIM) de la UNAM, ya trabajan para hacer realidad ese sueño.

El objetivo es fusionar dos átomos que produzcan un elemento que no sea contaminante y, a la vez, que esa fusión nuclear genere una gran cantidad de energía.

De este modo, la propuesta a nivel mundial es llevar a cabo, en un reactor nuclear, la fusión del deuterio (²H) y el tritio (³H), ambos isótopos del hidrógeno, porque esta reacción generaría una gran cantidad de energía, helio y un neutrón.

“Por cada fusión se generarían más de 17 megaelectron-volts. La gran diferencia es que, para ello, se requerirían menos de cinco gramos de deuterio y tritio, mientras que para obtener esa misma cantidad de energía por medio de una combustión contaminante se necesita casi una tonelada de carbón”, detalló.

En la Tierra existe suficiente deuterio (una parte de él por seis mil 500 partes de hidrógeno) para abastecer durante varios miles de años los reactores de fusión nuclear.

El tritio, en cambio, es prácticamente inexistente en forma natural: sólo hay una porción por 10²º partes de hidrógeno.

“Por eso hay que producirlo artificialmente, y la forma más viable es a través de una fuente de litio. Los primeros estudios para obtenerlo, realizados entre 1970 y 1979, se enfocaron en este último y sus aleaciones metálicas; sin embargo, éstas se descartaron por sus altos índices de corrosión”, indicó.

Cerámicos de litio

Desde 1980, científicos de todo el mundo han trabajado con diversos cerámicos de litio, bajo la condición de que, además de producir tritio, presenten ciertas propiedades, como estabilidad fisicoquímica a altas temperaturas, compatibilidad con otro tipo de materiales estructurales y una adecuada transferencia de calor.

Algunos de los más estudiados son el óxido de litio, los aluminatos de litio, los silicatos de litio y los zirconatos de litio.

En su laboratorio del IIM, Pfeiffer Perea ha producido, por distintos métodos de síntesis, varios materiales cerámicos, como los aluminatos, los silicatos y los silicozirconatos de litio, que se pueden probar en la producción de tritio.

Precisamente, con su tesis doctoral sobre síntesis, caracterización y evaluación de propiedades de esos cerámicos generadores de tritio, el investigador universitario ganó en el 2001 la distinción otorgada por el Instituto de Investigaciones en Materiales de la UNAM a la mejor tesis doctoral en Ciencia de Ingeniería de Materiales.

En la reacción de fusión nuclear propuesta, los productos obtenidos serían helio (un gas inerte) y un neutrón, que se utilizaría para irradiar el litio y, consecuentemente, obtener tritio.

En efecto, si un átomo de 6Li (uno de los dos isótopos naturales del litio, con una abundancia natural de casi siete por ciento) es irradiado con neutrones, genera una reacción de fisión nuclear en la que se produce tritio (combustible de los reactores de fusión nuclear) y nuevamente helio.

“Por lo tanto, un reactor de fusión nuclear produciría tritio a partir de litio, pero no desechos radioactivos”, explicó.

Un sol en la Tierra

¿Qué falta para que se abra la posibilidad de generar energía mediante esa vía alterna que es la fusión nuclear?

“Antes que nada se debe resolver el problema que implica el contenedor de un reactor de fusión nuclear; aún no sabemos cómo contener un sol, una reacción solar, dentro del planeta”, reconoció Pfeiffer Perea.

Para ello, se han propuesto diferentes sistemas que utilizarían campos electromagnéticos o distintos tipos de rayos láser. Sin embargo, con la tecnología disponible actualmente aún no es posible edificar un reactor de esa naturaleza.

“En una conferencia mundial, un especialista sostuvo que si hoy en día se quisiera construir un reactor de fusión nuclear en algún punto del planeta, sus instalaciones tendrían que ser del tamaño de la ciudad de Ámsterdam, Holanda. Ello significa que todavía es imposible, desde el punto de vista tecnológico, construirlo”, apuntó.

Todos los reactores nucleares que hay en el mundo, incluso el de Laguna Verde en México, y los de Estados Unidos, Francia o Japón, son de fisión nuclear. En ellos, se utilizan elementos pesados como el uranio; al fisionarse sus átomos, se producen grandes cantidades de desechos radiactivos.

En un reactor de fusión nuclear, en cambio, se trataría de unir átomos y, en principio, no se producirían residuos. Esa sería una gran ventaja.

“Para tener un reactor de fusión nuclear, o lo que es lo mismo, un sol aquí, en el planeta, falta aún mucho trabajo relacionado no sólo con el contenedor y la producción de tritio, sino también con todos los sistemas alternativos y de control”.

Reactores nucleares del futuro

En el futuro, los reactores de fusión nuclear podrían resolver los problemas cada vez más apremiantes de abastecimiento de energía eléctrica.

Los indicadores actuales muestran que, dentro de 40 ó 50 años, el costo de la energía eléctrica limpia generada a partir de la fusión nuclear será comparable con el costo de la energía eléctrica producida hoy en los reactores de fisión nuclear, o a partir de los combustibles fósiles como el petróleo, el gas natural o el carbón.

Para que funcione, un reactor de fusión nuclear de tres mil megawatts necesitará 500 gramos de tritio por hora. Por consiguiente, los materiales cerámicos de litio productores de tritio deberán ser tan eficientes como sea posible.

Lea el artículo en: http://www.dgcs.unam.mx/boletin/bdboletin/2012_464.html

Boletín UNAM-DGCS-464
Ciudad Universitaria.

Anomalías del cerebro podrán verse en 3D

 
Facebooktwittergoogle_plusmail

El avance se viene desarrollando en la Escuela de Mecatrónica de la Facultad de Minas de la UN.
El avance se viene desarrollando en la Escuela de Mecatrónica de la Facultad de Minas de la UN.

23 de mayo de 2012

Expertos en eléctrica y automatización localizarán y “dibujarán”, con mayor exactitud, los problemas neuronales, gracias al desarrollo de algoritmos que transforman señales eléctricas en imágenes.

En la actualidad, la electroencefalografía (EEG) es el método usado con mayor frecuencia para conocer la actividad eléctrica de este poderoso y entramado “procesador” natural, que ejecuta las funciones especializadas de nuestra vida diaria.

El problema, según coinciden los miembros del Grupo de Automática de la UN en Medellín (Gaunal), es que con dicho procedimiento no se puede extraer suficiente información sobre lo que pasa dentro de la intrigante “cabina de pilotaje” que es el cerebro.

Lo que hace la EEG es captar las señales de las neuronas a través de electrodos dispuestos sobre el cuero cabelludo del paciente. Los datos son trasferidos a una máquina que, luego del respectivo procesamiento computacional, imprime unas curvas de movimiento, similares a las de los sismógrafos para detectar temblores de tierra.

Si bien la técnica es útil, tiene bastantes limitaciones debido a que algunas señales son casi indescifrables para los especialistas, en la medida en que indican que algo anda mal, pero no precisan ni qué ni dónde.

Una “foto” con señales

Los expertos de la UN diseñaron un método que aprovecha los reportes de la EEG y los transforma en imágenes detalladas, en tercera dimensión (3D), de la zona del cerebro en crisis.

Para entender mejor cómo funciona la conversión de las señales en figuras inteligibles, José David López, investigador principal del proyecto, pone como ejemplo la forma en que se detecta la actividad sísmica.

“Cuando hay un temblor, diversos sensores instalados en la superficie alrededor de la Tierra se activan y cada uno mide una potencia de energía diferente, lo que hace posible triangular la ubicación original, de la misma forma como lo hacen los sistemas de posicionamiento satelital”, explica.

De manera similar se aprovechan y analizan las señales de energía de las neuronas, obtenidas mediante el encefalograma, con el fin de determinar la anchura, la longitud y la profundidad de las ondas emitidas. Para ello se acude a fórmulas matemáticas y algoritmos especializados, que permiten reconstruir en imágenes 3D la actividad cerebral en el sitio afectado.

El director del Gaunal, Jairo Espinosa, especifica que con el electroencefalograma se adquiere la intensidad eléctrica mientras las neuronas trabajan, pero esa señal es material en bruto, “como un ruido”, que se debe descifrar. El trabajo de los ingenieros de la UN consiste en encontrar la coherencia entre ese conjunto de frecuencias y localizar la región que provoca la actividad anormal en ese momento.

Una vez se tienen las imágenes es posible detectar problemas diversos (como párkinson, lesiones en la médula espinal, derrames y falencias auditivas), así como revelar el comportamiento cerebral para hacer estudios de drogas y de la epilepsia.

El reto es concretar el método preciso con un software médico que tome las “fotos” del comportamiento tridimensional del cerebro. El proyecto cuenta con el acompañamiento de centros de neuroimágenes de Inglaterra y Bélgica que han desarrollado técnicas para problemas de este tipo.

Los expertos agregan que el objetivo es aprovechar un poder computacional mucho mayor que el de la actualidad, con algoritmos que se encarguen de hacer la reconstrucción del lugar deseado, para que luego el computador tome esa información y la organice en forma de datos.

Ellos también están incursionando en la ubicación de focos epilépticos o regiones de la corteza cerebral responsables de las crisis. “De allí surgen enfermedades crónicas, dado que se manifiestan con ataques recurrentes de descargas eléctricas, excesivas o breves, de grupos de células”, explican.

López, experto en automatización, resalta: “no hay que estar dentro del cerebro para medir su actividad eléctrica y magnética, sino que lo medimos desde afuera y elaboramos imágenes que cualquiera pueda entender. Queremos ser lo menos invasivos posible”.

Beneficio de alto impacto

Según datos de la organización Mundial de la Salud (OMS), en el planeta hay aproximadamente 50 millones de personas con epilepsia. Lo preocupante es que de esta enfermedad derivan diversas alteraciones físicas que llevan a problemas psicosociales, por lo cual es necesaria una detección óptima y oportuna de los males.

El doctor Gareth R. Barnes, del Centro de Neuroimágenes de la University College London, señala que cada vez más neurólogos están siendo entrenados en estas técnicas, que ahorran tiempo y dinero al determinar patologías y procedimientos.

El experto británico resalta que el procedimiento desarrollado en la UN no es invasivo. Por ende, se pueden evitar cirugías innecesarias: por ejemplo, cuando se elige dónde poner las mallas de EEG intracraneales, en casos de epilepsia se pueden ubicar sin necesidad de remover gran parte del cráneo. Así, se evitará la remoción amplia de regiones del cerebro y solo se extraerá el foco afectado.

Sobre este aspecto, un informe de la Agencia de Evaluación de Tecnologías Sanitarias (AETS), de España, explica que cuando se detecta un foco epiléptico este “debe estar localizado en una región cuya exéresis (escisión quirúrgica de una parte inútil o perjudicial) no tenga como consecuencia un déficit neurológico y neuropsicológico responsable de incapacidad o de alterar la vida cotidiana del paciente”. Pues uno de los riesgos con las operaciones es remover neuronas sanas que mantienen funciones benéficas.

El estudio de identificación de señales que desarrolla el Grupo de Automática, desde hace tres años, se adelanta en asociación con el Hospitalito Infantil de Manizales y el Instituto de Epilepsia y Párkinson del Eje Cafetero, que efectúan operaciones para remover lesiones epilépticas. Estos serán potenciales implementadores del importante adelanto científico de la UN en Medellín.

Créditos: agenciadenoticias.unal.edu.co