EDITOR EN JEFE Dr. Juan Andrés López Barreras Facultad de Ciencias Químicas e Ingeniería Universidad Autónoma de Baja California COMITE EDITORIAL - PDF Descargar libre (2024)

Transcripción

1

2 Año 05 EDITOR EN JEFE Dr. Juan Andrés López Barreras Facultad de Ciencias Químicas e Ingeniería Universidad Autónoma de Baja California José López Auxiliar Edición César López Auxiliar Diseño Revista Aristas Es una Revista de Divulgación Científica donde la Unidad Académica responsable es la Facultad de Ciencias Químicas e Ingeniería, Campus Tijuana de la Universidad Autónoma de Baja California COMITE EDITORIAL UNIVERSIDAD AUTONOMA DE BAJA CALIFORNIA Dr. Fernando Toyohiko Wakida Kusunoki Dr. Samuel Guillermo Meléndez López Dr. Luis Guillermo Martínez Méndez Dr. José Heriberto Espinoza Gómez Dr. Jesús Everardo Olguín Tiznado Dr. Paul Adolfo Taboada González Dr. Luis Enrique Palafox Maestre Dr. Marco Antonio Ramos Ibarra Dr. José Luis González Vázquez Dr. Gerardo César Díaz Trujillo Dr. José Manuel Cornejo Bravo Dra. Claudia Camargo Wilson Dra. Quetzalli Aguilar Virgen Dr. Guillermo Licea Sandoval Dra. Alma Elia Leal Orozco Dr. Iván Córdova Guerrero Dr. Manuel Castañón Puga Dr. Raudel Ramos Olmos M.C. Rubén Guillermo Sepúlveda Marqués M.C. Carlos Francisco Alvarez Salgado M.C. José Jaime Esqueda Elizondo M.C. Jorge Edson Loya Hernández M.C. José María López Barreras M.C. Julio Cesar Gómez Franco M.C. Teresa Carrillo Gutiérrez UNIVERSIDAD DEL BIO-BIO, CHILE. Dra. Leticia Galleguillos Peralta Dr. Ivan Santelices Malfanti INSTITUTO TECNOLÓGICO DE HERMOSILLO Dr. Enrique de la Vega Bustillos Dr. Gil Arturo Quijano Vega revistaarista@uabc.edu.mx PORTADA Diseño: JA-C&LB Publicación Semestral LEGAL REVISTA ARISTAS INVESTIGACIÓN BÁSICA Y APLICADA, Número Especial, año 4, número 7, Enero-Junio del 05, es una publicación semestral editada y publicada por la Universidad Autónoma de Baja California, Ave. Álvaro Obregón sin número, Col. Nueva, Mexicali, Baja California, México. C.P. 00. Teléfono Directo: (686) , (686) , Conmutador: (686) 55-8-, Fax: (686) 55-8-, ext Editor responsable: Juan Andrés López Barreras. Reservas de Derechos al uso Exclusivo No , ISSN , ambas otorgadas por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este número: Juan Andrés López Barreras, Coordinación de Posgrado e Investigación de la Facultad de Ciencias Químicas e Ingeniería, fecha de última actualización y publicación: de Febrero del 05. La reproducción total o parcial está autorizada siempre y cuando se cite la fuente. Derechos Reservados Toda reproducción total o parcial deberá citar a la Revista Aristas: Investigación Básica y Aplicada El contenido de los artículos publicados no representan necesariamente los pensamientos de la Universidad ni de la propia Revista. El contenido de los Artículos únicamente es responsabilidad de sus Autores. Mayores informes Revista Aristas: Investigación Básica y Aplicada Universidad Autónoma de Baja California Facultad de Ciencias Químicas e Ingeniería Calzada Universidad # 448 Mesa de Otay, Tijuana, B.C. C.P. 390, México. Tel. +5 (664) Fax +5 (664) Publicada por la Facultad de Ciencias Químicas e Ingeniería UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA

3 Universidad Autónoma de Baja California Facultad de Ciencias Químicas e Ingeniería Memorias del Congreso Internacional de febrero 8 al 0 05 Investigación Tijuana CIT, Tijuana, Baja California, México. Una plataforma de divulgación de los trabajos teóricos y/o prácticos para profesores, investigadores y alumnos. Además, promueve la vinculación entre pares expertos para enriquecer futuras investigaciones. Revista Aristas Investigación Básica y Aplicada ISSN

4 RECTOR Dr. Juan Manuel Ocegueda Hernández SECRETARIO GENERAL Dr. Alfonso Vega López VICERRECTORA CAMPUS TIJUANA Dra. María Eugenia Pérez Morales DIRECTOR DE LA FACULTAD DE CIENCIAS QUIMICAS E INGENIERIA Dr. Luis Enrique Palafox Maestre PRESIDENTE DEL COMITÉ ORGANIZADOR M.C. Diego Armando Trujillo Toledo - Coordinador General COMITÉ DEL PROGRAMA ACADEMICO Dr. José Luis González Vázquez - Coordinador General Dr. José Heriberto Espinoza Gómez Dr. Juan Andrés López Barreras M.C. José Jaime Esqueda Elizondo M.C. Carlos F. Álvarez Salgado M.C. Karla Madrigal Estrada M.C. Laura Jiménez Beristaín M.C. María Elena Miranda P MC. Roberto A. Reyes M. M.C Teresa Carrillo G. M.C. Erika Beltrán S. Asistentes de Edición y Diseño M.C. José María López Barreras Miguel Carlos Galindo Quiñonez Jesús Enrique Ching Pellegrini Ciara Leilani Villaseñor Ochoa Lucia Gabriela Ávila Zavala Yesenia Rubalcava Arce María José López Ávila EQUIPO DE COLABORADORES M.C. Cesar Ismael López Barreras M.C. A. Leticia Palacios M.C. Carlos F. Álvarez M.C. José Jaime Esqueda E. Dra. Carelia G. Gaxiola P. I.Q. Analy Quiñonez Plaza I.B.A. Eugenia Del Carmen Inzunza González M.C. Víctor Manuel Iriarte Cortes M.C. María Elena Miranda P. M.C. Roberto A. Reyes M. Dr. Cesar García Ríos I.Q. Lizeth Carolina Aguilar Dodier Dr. Ana Isabel Ames López M.C. Marco Antonio Pinto

5 SECCIÓN I INGENIERÍA ELECTRÓNICA CONTROL POR MODOS DESLIZANTES MEJORADO Raúl Rascón Carmona, Andrés Calvillo Téllez, Juan de Dios Ocampo Díaz, Jose Ricardo Cárdenas-Valdez CONTROL INDIRECTO PARA EL CONVERTIDOR BOOST UTILIZANDO PLANITUD DIFERENCIAL CON MODOS DESLIZANTES Leopoldo Gil Antonio, Alejo Eleuterio Roberto, Erika López González, Juan A. Antonio Velázquez 3 DESARROLLO DE UN SIMULADOR BASADO EN EL ROBOT IRB40 DE ABB PARA LA ENSEÑANZA DE LA ROBÓTICA Arnoldo Fernández Ramírez, Enrique Cuan Durón, Elisa Urquizo Barraza, Roxana García Andrade. 4 DISEÑO E IMPLEMENTACION DE UN MODULADOR DEMODULADOR I/Q EN UN DSP-FPGA Thaimí Niubó Alemán, J. Apolinar Reynoso Hernández, José Cruz Núñez Pérez. 5 CONTROL DE POSICIÓN DE UN BICOPTERO MEDIANTE CONTROLADORES PID DIGITALES Diego Armando Trujillo Toledo, María Elena Miranda Pascual, Roberto Alejandro Reyes Martinez, Eugenio Mena Quevedo, José Ávila De La Toba 6 PLATAFORMA DIGITAL BASADA EN UN FPGA PARA LA MEDICIÓN DE LAS CURVAS DE DISTORSIÓN AM-AM Y AM-PM EN AMPLIFICADORES DE POTENCIA DE RF Katherine Montoya Villegas, José Ricardo Cárdenas Valdez, J. Apolinar Reynoso Hernández, José Cruz Núñez Pérez. 7 UN SISTEMA DE MEDICIÓN BASADA EN INSTRUMENTACIÓN DEL TREMOR PARKINSONIANO, UNA ALTERNATIVA NO INVASIVA BASADA EN INSTRUMENTACIÓN VIRTUAL Juan Fernando García Mejía, Allan Antoni Flores Fuentes, Carlos Eduardo Torres Reyes, Susana González Matías. 8 RADAR MARINO COMO INSTRUMENTO DE MEDICIÓN PARA EL ESPECTRO DIRECCIONAL DEL OLEAJE MARINO Roberto Herrera Charles, Miguel A. Vergara Sánchez, Teodoro Álvarez Sánchez. 9 EXPERIMENTO NÚMERICO DE DETECCIÓN DE SEÑAL QPSK PARA DISTRIBUCIÓN DE LLAVE CRIPTOGRÁFICA CUÁNTICA EN CONDICIONES DE ESTADOS COHERENTES DÉBILES CON CUADRATURAS SIMULTÁNEAS Eduardo Álvarez Guzmán, Edith García Cárdenas, José Luis González Vázquez. 0 ANÁLISIS DE SEÑALES ENCEFALOGRÁFICAS DE JUGADORES DE VIDEOJUEGOS José Jaime Esqueda Elizondo, Laura Jiménez Beristáin, Eugenio Mena Quevedo, Adán Camacho Perales, Jesús Alberto Roque Sandoval, Yesenia Rojo Ramírez Congreso Internacional de Investigación Tijuana. ISSN Edición Especial, Vol. 4, Núm. 7. Año 05. iv

6 SISTEMA DE PROCESAMIENTO DE SEÑALES ELECTROCARDIOGRÁFICAS EN LABVIEW José Jaime Esqueda Elizondo, Roberto Alejandro Reyes Martínez, Marco Antonio Pinto Ramos, Isaac Alejandro Álvarez Terán, José Diego Rodríguez Ortiz. CROSS-SENSOR IRIS VERIFICATION APPLYING ROBUST SEGMENTACION ALGORITHMS Mireya S. García Vázquez, Eduardo Garea Llano, Juan Miguel Colores Vargas, Luis Miguel Zamudio Fuentes, Alejandro Ramírez A. 3 SINCRONIZACIÓN DE MAPAS CAÓTICOS DISCRETOS UNIDIMENSIONALES EN SISTEMAS NO LINEALES ACOPLADOS Héctor Garcés Guzmán, Nohemí Aracely Figueroa Martell. 4 RADIO LINK BUDGET EVALUATION FOR UHM José Ricardo Cárdenas Valdez, José Cruz Núñez Pérez, Andrés Calvillo Téllez, Raúl Rascón Carmona. SECCIÓN II CIENCIAS QUÍMICAS-BIOLÓGICAS CONDICIONES PARA LA ELIMINACIÓN DE UN TUMOR MALIGNO MEDIANTE QUIMIOTERAPIA Paul Antonio Valle Trujillo, Corina Plata Ante, Konstantin E. Starkov, Luis Néstor Coria de los Ríos. 6 ESTUDIO DE LA DINÁMICA GLOBAL DE UN SISTEMA BIOLÓGICO MULTIDIMENSIONAL DE CRECIMIENTO DE TUMOR DE CÁNCER Antonio Villegas Ortíz, Konstantine E. Starkov, Diana Gamboa Loaiza. 7 ANÁLISIS MATEMÁTICO NO LINEAL DE UN MODELO DE CRECIMIENTO TUMORAL CANCEROSO CON Y SIN TRATAMIENTO BCG Diana Gamboa Loaiza, Konstantine E. Starkov, Antonio Villegas Ortiz. 8 ESTUDIO DE LA DINÁMICA GLOBAL DE ALGUNOS MODELOS MATEMÁTICOS QUE REPRESENTAN UN TUMOR DURMIENTE Corina Plata Ante, Paul Antonio Valle Trujillo, Konstantin E. Starkov, Luis N. Coria de los Ríos. SECCIÓN III CIENCIAS COMPUTACIONALES LA DESERCIÓN ESCOLAR DESDE EL PUNTO DE VISTA DE LA MINERÍA DE DATOS. CASO DE ESTUDIO: TECNOLÓGICO DE ESTUDIOS SUPERIORES DE JOCOTILÁN, GENERACIONES Roberto Alejo, L. Gil Antonio, E. López González, J. A. Antonio Velázquez. 0-3 Congreso Internacional de Investigación Tijuana. ISSN Edición Especial, Vol. 4, Núm. 7. Año 05. v

7 0 INVESTIGACIONES ACTUALES RELACIONADAS AL RECONOCIMIENTO DE PATRONES Juan Alberto Antonio Velázquez, Alejo Eleuterio Roberto, Erika López González, Leopoldo Gil Antonio, Rosa María Valdovinos. DESARROLLO DE UN MODELO GA-MLP PARA EL DIAGNOSTICO DE NEFROPATIA DIABETICA BASADA EN LA INDORMACIÓN PROTEÓMICA EN ORINA Mario Alberto González Avalos, Jeús Celis Porras, Francisco Javier Godínez García. MODELO BASADO EN UNA RED NEUTRAL BACKPROGAMATION PARA LA DETECCION DE VPH DE ALTO RIESGO A PARTIR DE INFORMACIÓNGENETICA Juan Andrés Díaz García, Jesús Celis Porras, Rúben Guerrero Rivera, Marcela Coria Quiñones. 3 INTERFAZ DE RECONOCIMIENTO DE MOVIMIENTOS PARA EL LENGUAJE DE SEÑAS MEXICANO IMPLEMENTANDO EL KINECT Erika López González, Juan A. Antonio Velázquez, Roberto Alejo Eleuterio, Leopoldo Gil Antonio. 4 ESTRATEGIA DE PARALELIZACIÓN BASADA EN REDUCIONES PARALELAS PARA RENDERSCRIPT Jesús Antonio Álvarez Cedillo, Juan Herrera Lozada, Jacobo Sandoval Gutiérrez, Teodoro Alvarez Sánchez. 5 MÉTODO DE SIMULACIÓN DE REPLICADO DE INFORMACIÓN USANDO UNA BASE DE DATOS EN JODBC EN UN SISTEMA DISTRIBUIDO TRABAJANDO CON EL MODELO CLIENTE SERVIDOR Ezequiel Alejandro Duarte Hernández, Armando de Jesús Ruíz Calderón, Sofía Barrón Pérez, Abel González Cañas. 6 FACTIBILIDAD DE AHORRO DE ENERGÍA CON EL DESARROLLO SECUENCIAL DEL ANÁLISIS DE CONGLOMERADOS Armando de Jesús Ruiz Calderón, María Verónica Estrella Suárez, Jorge Ricardo Gersenowies Rodríguez, Ezequiel Alejandro Duarte Hernández. 7 ALGORITMO GENÉTICO SIMPLE EN EL PROCEDIMIENTO DE LENGUAJE NATURAL Dora María Calderón Nepamuceno, Efrén González Gómez, Doricela Gutiérrez Cruz, Walter Charles Bautista Traconiz. 8 PROCESAMIENTO DE IMÁGENES APLICADOS A LA EDUCACIÓN Dora María Calderón Nepamuceno, Efrén González Gómez, Gabriela Kramer Bistos, Doricela Gutiérrez Cruz, Edgar Figueroa Arenas. 9 REDUCCIÓN DEL ORDEN DE PROCESO DE FUSIFICACIÓN MEDIANTE DISEÑO DE ARQUITECTURA EN FPGA Emanuel Ontiveros Robles, José Luis González Vázquez, Olivia Mendoza Duarte Congreso Internacional de Investigación Tijuana. ISSN Edición Especial, Vol. 4, Núm. 7. Año 05. vi

8 30 RENDIMIENTO DE PROCESADORES MAYCORE SOBRE TOPOLOGÍA D Teodoro Álvarez Sánchez, Raúl Muñoz Ortíz, Andrés Calvillo Téllez, Miguel Ángel Romero Miranda. 3 UNA SIMULACIÓN SPEC95 PARA IDENTIFICAR EL AHORRO DE ENERGÍA Y CONSUMO DE ENERGÍA EN CACHES EN POWER PC Y ALPHA PROCESADORES Teodoro Álvarez Sánchez, J. Álvarez Cedillo, Juan Herrera Lozada, Jacobo Sandoval Gutiérrez. 3 APLICACIÓN SOFTWARE DE APOYO PARA DISEÑO DE EVALUACIÓN BAJO COMPETENCIAS Miguel Ángel de la Vara Ramírez, Elisa Urquizo Barraza, Enrique Cuan Durón, Diego Uribe Agundis, Sara María Velázquez Reyes. SECCIÓN IV TECNOLOGIA QUIMICA PRODUCCIÓN Y CARACTERIZACIÓN DE ENSAMBLES HÍBRIDOS ALÚMINA/ACERO AISI 40S POR EL MÉTODO BRAZING Armando Carrillo-López, José Lemus-Ruíz, Juan Zárate-Medina. 34 SINTESIS Y CARACTERIZACIÓN DE COMPUESTOS DE MATRIZ METÁLICA MG-AZ9/AN PRODUCIDOS POR INFILTRACIÓN ESPONTANEA Alejandro Ayala Cortés, José Lemus Ruiz, Egberto Bedolla Becerril. SECCIÓN V INGENIERIA INDUSTRIAL GESTIÓN DE CONOCIMIENTO EN UN CONTEXTO EMPRESARIAL A TRAVÉS DE LA TECNOLOGÍA DE OBJETOS DE APRENDIZAJE Elisa Urquizo Barraza, Enrique Cuan Durón, Diego Uribe Agundis, Arnoldo Apolonio Fernández Ramirez, Sara María Velázquez Reyes. 36 ESTUDIO TÉCNICO SOBRE TRANSPARENCIA TECNOLÓGICA EN INSTITUCIONES DE EDUCACIÓN SUPERIOR Jaqueline Vargas González, Roberto Alejo Eleuterio. 37 UTILIZACIÓN DE E-LEARNING COMO HERRAMIENTA INNOVADORA Y PRODUCTIVA EN EL PROCESO DE ENSEÑANZA-APRENDIZAJE Eva Vera Muñoz, Iliana Gabriela Laguna López de Nava, Luis Cano Santacruz. 38 DESARROLLO DE UN SISTEMA DE CALIDAD PARA LA LOGÍSTICA DE EMPAQUE Y EMBARQUE DEL MELÓN CANTALOUPE EN LA COMARCA LAGUNERA PARA SU Congreso Internacional de Investigación Tijuana. ISSN Edición Especial, Vol. 4, Núm. 7. Año 05. vii

9 EXPORTACIÓN Sara María Velázquez Reyes, María Luisa López Segura, Alma Delia González Cárdenas, Benigno Landeros Arenas, José Enrique Sifuentes Vargas, María Cristina García Carrillo. 39 DISEÑO DE UNA ESTACIÓN DE CONTROL PARA LA SIMULACIÓN DE PROCESOS INDUSTRIALES EN LA ESPECIALIDAD DE INSTRUMENTACIÓN INDUSTRIAL Y CONTROL DE LA CARRERA DE INGENIERÍA ELECTRÓNICA DEL ITSP Manuel Antonio Arenas Méndez, Rosa Gabriela Camero Berrones, Miguel de Jesús Cabriales Muñiz, David Hernández Hernández. SECCIÓN VI INGENIERIA AMBIENTAL CONTAMINANTES EN SEDIMENTOS DE CALLES DE TIJUANA, B.C. Fernando Toyohiko Wakida Kusunoki, Miguel Angel Pastrana Corral, Analy Quiñones Plaza, Enrique García Flores, Juan Temores Peña. 4 METALES PESADOS EN SUELOS ALEDAÑOS EN PLANTA GENERADORAS DE ENERGÍA, EN BAJA CALIFORNIA Pastrana Corral Miguel Angel, Fernando Toyohiko Wakida Kusunoki, Enrique García Flores, Juan Temores Peña, Analy Quiñones Plaza, José Heriberto Espinoza Gómez Congreso Internacional de Investigación Tijuana. ISSN Edición Especial, Vol. 4, Núm. 7. Año 05. viii

10 SECCIÓN I INGENIERÍA ELECTRÓNICA 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

11 CONTROL POR MODOS DESLIZANTES MEJORADO Resumen Un enfoque novedoso para el diseño de controladores por modos deslizantes de primer orden es propuesto. El presente controlador permite lograr el objetivo de control a pesar de presentarse perturbaciones externas en la planta, por otra parte la velocidad de respuesta es más rápida y el esfuerzo de control es más pequeño que al utilizar el control por modos deslizantes clásico. La estabilidad del sistema en lazo cerrado se realiza utilizando herramientas de Lyapunov. Se prueban la robustez del algoritmo propuesto en un sistema mecánico a través de simulaciones numéricas. Palabras claves Control por modos deslizantes, filtros de segundo orden, observadores, sistemas mecánicos. RAUL RASCÓN CARMONA Ingeniero en Electrónica, Ph. D. Profesor a nivel licenciatura y posgrado. Universidad Autónoma de Baja California raul.rascon@uabc.edu.mx ANDRÉS CALVILLO TÉLLEZ Ingeniero en electrónica, M.C Profesor Investigador. Instituto Politécnico Nacional-CITEDI calvillo@citedi.mx JUAN DE DIOS OCAMPO DÍAZ Ingeniero mecánico Ph. D. profesor a nivel licenciatura y posgrado Universidad Autónoma de Baja California juan.ocampo@uabc.edu.mx. INTRODUCCIÓN El problema abordado en el presente trabajo, es el de seguimiento de trayectoria en un sistema de segundo orden, el cual es un sistema no lineal. Se consideran incertidumbres paramétricas que afectan a la planta así como perturbaciones externas, con el fin de lograr el objetivo de control es necesario conocer las cotas superiores de las perturbaciones y de la incertidumbre paramétrica que afectan al sistema. El problema de seguimiento de trayectoria es un problema clásico de control, donde su importancia radica en las aplicaciones reales que tienen estos algoritmos, aunque estos problemas ya han sido resueltos anteriormente, siempre existe la posibilidad de mejorar de alguna manera los algoritmos previamente diseñados. El algoritmo de control que se propone se diseña utilizando la técnica de modos deslizante. La principal característica de esta clase de controladores es que permiten que el modo deslizante ocurra sobre una superficie de conmutación anteriormente prescrita, de tal manera que el sistema es gobernado solamente por la ecuación deslizante, por lo que el sistema permanece insensible a una clase de perturbaciones y variaciones paramétricas [5]. Este método de control ha sido probado satisfactoriamente en aplicaciones de control de movimiento en robots manipuladores, en aplicaciones Aeroespaciales y aplicaciones médicas, véase por ejemplo [6] y las referencias que contiene. Además otro JOSÉ RICARDO CÁRDENAS-VALDEZ Ingeniero en electrónica M.C Profesor Investigador. Instituto Politécnico Nacional-CITEDI jcardenas@citedi.mx trabajo previo sobre modos deslizantes puede ser encontrado en [7], donde se utiliza la técnica de control anteriormente mencionada en un prototipo mecánico de un grado de libertad. Más recientemente en [8] se diseña un controlador utilizando una mezcla de modos deslizantes-h-infinito para estabilizar un sistema mecánico con holgura mecánica (conocida en la literatura como backlash) y perturbaciones externas. El control por modos deslizantes es reconocido por ser una herramienta eficiente para diseñar controladores robustos para plantas dinámicas no lineales de alto orden las cuales operan bajo condiciones de incertidumbre. La investigación en esta área fue iniciada en la antigua Unión Soviética hace alrededor de 60 años y ha recibido mucha más atención de la comunidad de control internacional dentro de las dos últimas décadas véase [9,0]. La mayor ventaja de los modos deslizantes es la baja sensibilidad respecto a variaciones de los parámetros de la planta y perturbaciones, las cuales eliminan la necesidad de un modelo exacto. El control por modos deslizantes supone que las acciones de control son funciones de estados discontinuos los cuales pueden ser fácilmente implementados por convertidores de energía convencionales con "encendidoapagado" como el único modo de operación. Por ello la investigación ha ido creciendo ya que ha demostrado ser aplicable para un amplio rango de problemas como en robótica, accionadores eléctricos y generadores, control de procesos, vehículos y control de movimiento, entre 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

12 otros. Detalles sobre la solución de ecuaciones diferenciales con lado derecho discontinuo se puede encontrar en []. Las principales ventajas de este método son: Es robusto contra una amplia clase de perturbaciones o incertidumbres del modelo. La necesidad por una reducida cantidad de información en comparación a técnicas de control clásico. La posibilidad de estabilización de algunos sistemas no lineales los cuales no son estabilizadles por leyes continúas de retroalimentación de estados. Como desventaja los modos deslizantes tienen como su principal inconveniente: el llamado efecto "chattering", es decir, peligrosas vibraciones de alta frecuencia del sistema controlado, véase [,3]. Este fenómeno se refiere a la aparición de oscilaciones, de amplitud y frecuencia finita, en el estado de la planta debido a la excitación por parte del control discontinuo de dinámicas no modeladas en sensores y actuadores. Como dinámicas no modeladas se tienen, por ejemplo, zonas muertas, saturaciones, histéresis y el ancho de banda limitado de los actuadores. Es importante recalcar que el término "chattering" no se refiere a la conmutación del controlador, que idealmente debe ser de frecuencia infinita, sino a las oscilaciones en el estado del sistema. Para evitar "chattering", se propusieron algunas soluciones en [4,5]; más recientemente algunos trabajos de supresión de "chattering" se pueden encontrar en [6,7]. La idea principal era cambiar las dinámicas en una pequeña vecindad de la superficie discontinua con el fin de evitar discontinuidad real y al mismo tiempo conservar las propiedades principales del sistema entero. Sin embargo, la gran exactitud y robustez de los modos deslizantes se perdió de manera parcial. En el presente trabajo para probar la estabilidad del sistema dinámico con retroalimentación de salida se utilizan herramientas de funciones cuadráticas, algunas referencias pueden encontrarse en [8, 9, 0, ]. Estas herramientas nos permiten que las trayectorias converjan asintóticamente a la referencia deseada una vez que se llega a la superficie deslizante, además de probar convergencia en tiempo finito hacia las superficies deslizantes. El resto del trabajo se desglosa en las siguientes secciones: En la sección se plantea el problema a solucionar. En la sección 3 se propone una ley de alcance exponencial para que las trayectorias alcancen la superficie deslizante. En la sección 4 se propone el de un observador de velocidad. En la sección 5 se propone de igual manera un estimador de perturbaciones, continuando. En la sección 6 donde se propone la síntesis del controlador utilizando elementos explicados en las secciones anteriores. n la sección 7 se hace una comparación del desempeño del algoritmo propuesto contra un algoritmo de control por modos deslizantes de primer orden, las simulaciones se hacen en MatLab Finalmente en la sección 8 se dan comentarios finales.. DECLARACIÓN DEL PROBLEMA La principal preocupación en este artículo es proponer una mejora en la diseño del control por modos deslizantes de primer orden, con el fin de resolver el problema de seguimiento de trayectoria en un sistema de segundo orden a través de la medición de salida. Se considera que el sistema está sujeto a perturbaciones externas, las cuales se consideran acotadas. Considérese el sistema mecánico de segundo orden representado por 0 0 ( ) () Donde x, x son la posición y velocidad del sistema, respectivamente, a y b son constantes diferentes de cero, f (x) es una función no lineal, u es la señal de control. Con el fin de considerar discrepancias en el modelo dinámico, se incluye una perturbación externa no desvaneciente (t), la cual se considera que no es completamente conocida pero es acotada por una cota superior que satisface supt ( t) A. Para el sistema () se propone el siguiente controlador ( ) (3) () Donde ( ) ( ) ( ) y donde ( ) representa el error entre f y f ~, el cual se considera acotado superiormente por una constante. Para una fuerza de entrada 0 y una perturbación externa 0, el sistema () tiene los siguientes puntos de equilibrio ( ( ) ) 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

13 Si se desea que el punto de equilibrio este en el origen, en estado estable, entonces se debe seleccionar que la fuerza diseño o el par sea igual a la función no lineal f (x) _ de otra manera si se selecciona como una constante, entonces el punto de equilibrio puede ser considerado como ( ( )) ( ) 3. LEY DE ALCANCE EXPONENCIAL HACIA LA SUPERFICIE DESLIZANTE Sea x d la trayectoria de referencia y x xd. x x d los errores de seguimiento, los cuales se pretende que converjan a cero. Para lograr ésto, el primer paso para el diseño de control por modos deslizantes es seleccionar la función de conmutación s, la cual está en términos del error de seguimiento. La selección típica de s esta dada por. (4) Cuando las trayectorias alcanzan la superficie deslizante, el error de seguimiento converge a cero mientras las trayectorias no escapen de ésta. La tasa de convergencia tiene relación directa con el valor que se le dé a. Existen dos fases en el diseño de control por modos deslizantes. La primera etapa se llama fase de alcance, es donde las trayectorias (, ) son atraídas hacia la superficie deslizante s=0. En la segunda etapa, que se conoce como modo deslizante, el vector de error se desliza por la superficie hasta alcanzar el punto de equilibrio (0,0). Conservando k t la condición (5) se puede satisfacer. La expresión (6) también se llama ley de alcanzabilidad. El término (t) es una perturbación no desvaneciente, la cual no es completamente conocida, pero, está acotada superiormente tal que satisface supt ( t) A. Se puede demostrar que las trayectorias alcanzan la superficie en s=0 en tiempo finito, a través de la siguiente función cuadrática ( ) (7) Al calcular se derivada con respecto al tiempo tenemos ( ) ( ) ( ) ( ) (8) Tomando la expresión (8) e integrando con respecto al tiempo, tenemos que el tiempo de alcance hacia la superficie deslizante t r está dado por ( ) ( ) (9) Así, V (t) converge a cero en tiempo finito y, en consecuencia ocurre un movimiento a lo largo del conjunto s=0. Nótese que el tiempo de alcance se puede reducir al incrementar el valor de k. Basándonos en estos resultados, proponemos una ley de alcance exponencial, la cual, también es afectada por perturbaciones Donde ( ) ( ) (0) ( ) ( ) ( ) () Una vez que ha sido seleccionada la superficie deslizante, el siguiente paso es diseñar la ley de control u, la cual permitirá que las trayectorias (, ) alcancen la superficie deslizante. Para lograrlo, la ley de control debe ser diseñada de tal forma que la siguiente condición, también llamada condición de alcanzabilidad se cumpla para todo tiempo Con el fin de satisfacer la condición (5), el término típicamente permanece bajo la influencia de las perturbaciones externas de la siguiente manera (5) ( ) (6). s 0 Es una constante de desvío estrictamente positiva y menor que uno, p es un entero estrictamente positivo. Nótese que la derivada de la superficie deslizante (0) no afecta la estabilidad del sistema, esto es, debido a que N(s) es siempre estrictamente positivo. Desde la derivada de la superficie deslizante (0) podemos observar que si s crece, N(s) se aproxima a 0, y por lo tanto, k / N( s) converge a k / 0, lo cual es mayor que k. Esto significa que k / N( s) crece a medida que s se incrementa, y consecuentemente, la razón de convergencia hacia s=0 será más rápida. Por el otro lado, si s decrece, entonces N(s) se aproxima a uno, y k / N( s) converge a k. Esto significa que cuando las trayectorias del sistema se aproximen a la referencia, k / N( s) gradualmente se reduce con el fin de reducir el esfuerzo de control. Por lo tanto, la superficie deslizante 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

14 Congreso Internacional de Investigación Tijuana. Revista Aristas: Investigación Básica y Aplicada. ISSN , Vol. 4, Núm. 7. Año 05. exponencial permite que el controlador se adapte de manera dinámica a las variaciones de s a través de variar k / N( s) entre el valor de k y de k / 0. Si 0 es elegida igual a uno, la ley de alcance (0) se vuelve idéntica a la ley de alcance convencional. s ksign( s) ( t). Por lo tanto la ley de alcance convencional es un caso particular del enfoque propuesto. 3. Proposición Para la misma ganancia k, la ley de alcance exponencial bajo la influencia de perturbaciones dada por (0) asegura un tiempo de alcance siempre igual o menor que la ley de alcance convencional bajo perturbaciones como en (6). Prueba Utilizando la misma función cuadrática como en (7) y obteniendo su derivada se puede mostrar que ( ). ( ) / ( ) () Nótese que supt ( t) A. Ahora, integrando () con respecto al tiempo tenemos El observador discontinuo propuesto tiene la forma [ ] < ( ) ( )= (5) Las variables e y e son los errores, los cuales están ^ dados por e x x y e x x, el principal objetivo del presente observador discontinuo es el análisis de estabilidad del siguiente sistema dinámico en función de los errores antes definidos [ ] < (6) ( ) ^ ( ) Ahora hagamos un cambio de variables z e ke = z y e. La dinámica del sistema (6) en la nueva transformación de estados está dada por ( ) ( ) ( ) ( ) Comparando (9) con (3) se puede notar que (3) [ ] [ ( ) ( )] ( ) ( ) ( ) (4) de esta manera el tiempo de alcance t r de la ley de alcance convencional bajo perturbaciones es igual o mayor al tiempo de la ley de alcance exponencial bajo perturbaciones t. ' r ' El caso particular donde tr tr solamente ocurre cuando las trayectorias del sistema comienzan sobre la superficie deslizante, es decir, en s=0 y nunca escapan de ' ella, en cualquier otro caso t t. 4. DISEÑO DE UN OBSERVADOR DE VELOCIDAD r Esta sección explica un observador discontinuo de velocidad para el sistema (), el siguiente diseño del observador está basado en los trabajos previos [], [], el sistema () tiene la salida r y x y es considerado que la variable x no está disponible, recordar que la variable está acotada por una constante conocida A. (7) Para propósitos de estabilidad consideremos la siguiente función candidata de Lyapunov, - [ ( ) ( ) (8) ] 0 La derivada temporal de V ( z, z ) a lo largo de las trayectorias de (6) está dada por ( ) ( ( )) ( ) ( ) ( ) ( ) 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

15 donde ( ) ( ) ( ) acorde con el teorema 4.8 y lema 9. en [3], se puede concluir que las soluciones de (6) son uniformemente de manera global acotadas por ( ) ( ) En el caso donde ( t) f ( x) 0, el punto de equilibrio de (7) es asintóticamente estable de manera uniforme. 5. ESTIMADOR DE PERTURBACIONES Acorde con [4], la inyección de salida equivalente u eq coincide con las componentes de baja frecuencia del término discontinuo en (6) cuando las trayectorias se encuentran sobre la superficie deslizante. Así, se puede recuperar la perturbación al utilizar un filtro pasa-bajas con una constante lo suficientemente pequeña comparada con la componente lenta de la respuesta, aunque debe ser también lo suficientemente grande para que se filtren las componentes de alta frecuencia. Para lograr esto, se puede proponer utilizar un filtro pasabajas Butterworth de segundo orden para estimar el término de u eq. Este filtro es descrito a través de la siguiente función de transferencia normalizada: ( ) ( ) (0) Donde c es la frecuencia de corte del filtro. Aquí, la entrada del filtro es el término discontinuo del observador, c sign( y ˆ). Denotando la salida del filtro como 3 y n f, y escogiendo la constante c x de tal manera que minimice el retardo de fase, es posible asumir que 6. SÍNTESIS DE RETROALIMENTACIÓN DE SALIDA En esta sección, se procede a diseñar el algoritmo de control para la retroalimentación de salida, para tal propósito sustituimos la velocidad observada ˆx y la perturbación estimada w ~ en el diseño de control quedándonos () ( ) ( ) de igual manera se considera la ley de alcance exponencial (0), () en (). 6. Prueba de estabilidad Reescribiendo el sistema en función de los errores de trayectoria y, nos queda [ ] [ ( ) ( ) ( )] () Dado que dé (4) tenemos que la superficie deslizante es s, derivándola y sustituyendo tenemos ( ) ( ) ( ) (3) Que es muy similar a (0), por lo que tenemos que ( ) ( ) ( ), donde w ~ es la perturbación estimada, mientras que la desigualdad k f (x) permanezca válida se cumplirá la desigualdad (5) por lo que las trayectorias de () se dirigirán hacia la superficie deslizante y la alcanzaran en un tiempo finito t r. Una vez que las trayectorias de error están sobre la superficie deslizante, la dinámica remanente es cero., por lo que el error tiende asintóticamente a, ( ) ( ) 7. COMPARACIÓN DE DESEMPEÑO 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

16 Se hace una comparación del desempeño del controlador propuesto () contra un controlador por modos deslizantes de primer orden Figura. Trayectoria x ( ) (4) En ambos casos se utiliza el observador de velocidad. Los parámetros utilizados para las simulaciones en MatLab se muestran en la Tabla Tabla. x (0) 4 x (0) 0 x d b sin(t) a p k c f (x) Sin(t) 0.cos(t) Fuente:matlab No se ponen unidades en la Tabla debido a que solamente es una simulación numérica. En la Figura puede observarse como la trayectoria de x converge hacia la referencia x d, los dos controladores logran el objetivo de control, sin embargo, el controlador () de modos deslizantes mejorado lo hace en un tiempo más pequeño. Fuente: Elaboracion propia a partir de el programa matlab Figura. Esfuerzo de control. Fuente: Elaboracion propia a partir de el programa matlab Figura 3. Error de seguimiento En la Figura se observa el esfuerzo de control, donde, el esfuerzo producido por el control por modos deslizantes mejorado es menor en amplitud y con menos chattering que el del control por modos deslizantes de primer orden (4). De igual manera la convergencia del error de seguimiento a cero es más rápido en el control por modos deslizantes mejorado como se observa en la Figura 3, la igual que la convergencia de la variable s a cero, obsérvese la Figura 4, finalmente en la Figura 5 se puede observar como la estimación de la perturbación converge a la perturbación real después de casi 5 segundos Fuente: Elaboracion propia a partir de el programa matlab 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

17 Figura 4. Movimiento deslizante s. exponencial hacia la superficie deslizante, un observador de velocidad y un estimador de perturbaciones en el diseño de un solo controlador. Como trabajo futuro se pretende perfeccionar este algoritmo y generalizar el tipo de sistemas a los que se puede aplicar, así como hacer pruebas experimentales. 9. REFERENCIAS Fuente: Elaboracion propia a partir de el programa matlab Figura 5. Estimación de la perturbación Fuente: Elaboración propia a partir de el programa matlab 8. CONCLUSIONES Lo que se muestra en este trabajo es una primera aproximación de un algoritmo de control que aún se sigue perfeccionando. El desarrollo teórico y las simulaciones numéricas muestran que el controlador que se propone en este trabajo tiene un tiempo de convergencia hacia la referencia menor que el del controlador por modos deslizantes de primer orden, otra ventaja es que el controlador propuesto reduce de una manera considerable el efecto del chattering y la amplitud de la señal de control, igualmente el objetivo de control se logra a pesar de perturbaciones externas e incertidumbre paramétrica en el sistema. Todas las ventajas antes mencionadas se logran a través de la síntesis de varios conceptos como: la ley de alcance [] D. I. Rosas Almeida, J. Alvarez, and L. Fridman, [] D. I. Rosas Almeida, J. Alvarez, and L. Fridman, Robust observation and identification of ndof lagrangian systems, International Journal of Robust and Nonlinear Control, vol. 7, no. 9, pp , 007. [] Y. Orlov, Y. Aoustin, and C. Chevallereau, Finite time stabilization of a perturbed double integratorpart i: Continuous sliding mode-based output feedback synthesis, IEEE Transactions on Automatic Control,, vol. 56, no. 3, pp , 0. [3] H. Khalil, Nonlinear Systems. Prentice Hall, Upper Saddle River, 00. [4] V. Utkin, Sliding modes in control and optimization. Berl ın: SpringerVerlag, 99. [5] V. Utkin, Sliding Modes and Their Applications. Moscow: Mir, 978. [6] Y. Shtessel, C. Edwards, L. Fridman, and A. Levant, Sliding Mode Control and Observation. Springer New York, 04. [7] R. Rascón, J. Alvarez, and L. Aguilar, "Regulation and force control using sliding modes to reduce rebounds in a mechanical system subject to a unilateral constraint," Control Theory Applications, IET, vol. 6, no. 8, pp , 0. [8] R. Rascón, J. Alvarez, and L. Aguilar, "Control robusto de posición para un sistema mecánico subactuado con fricción y holgura elástica," Revista Iberoamericana de Automática e Informática Industrial, 04. [9] G. Bartolini, L. Fridman, A. Pisano, and E. Usai, Modern Sliding Mode Control Theory: New Perspectives and Applications, ser. Lecture Notes in Control and Information Sciences. London: Springer, 008. [0] L. Fridman, J. Moreno, and R. Iriarte, Sliding Modes after the First Decade of the st Century: State of the Art, ser. Lecture Notes in Control and Information Sciences. Berlin: Springer, 0. [] A. F. Filippov, Differential Equations with Discontinuous Right-Handsides. Dordercht, The Netherlands: Kluwer, 988. [] C. Noh and I. Smith, "Chattering conditions in electromagnetic contactors," IEE Proceedings B, Electric Power Applications, vol. 7, no. 5, pp , september 980. [3] G. Stassinopoulos and R. Vinter, "On the dimension of the chattering basis for relaxed controls," IEEE Transactions on Automatic Control, vol., no. 3, pp , jun 977. [4] L. Levantovsky, "Second order sliding algorithms: their realization," in Dynamics of Heterogeneous 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8

18 Systems. Moscow: Institute for System Studies, 985, pp [5] J.-J. E. Slotine, "Sliding controller design for no linear systems," International Journal of Control, vol. 40, no., pp , 984. [6] G. Bartolini, "Chattering phenomena in discontinuous control systems," International Journal of Systems Science, vol. 0, no., pp , 989. [7] G. Bartolini, A. Ferrara, E. Usai, and V. Utkin, "On multi- input chattering-free second order sliding mode control," IEEE Transactions on Automatic Control, vol. 45, no. 9, pp.7-77, sep 000. [8] M. Branicky, "Multiple lyapunov functions and other analysis tools for switched and hybrid systems," IEEE Transactions on Automatic Control, vol. 43, pp , 998. [9] H. Kazerooni, "Contact instability of the direct drive robot when constrained by a rigid environment," IEEE Transactions on Automatic Control, vol. 35, pp , 990. [0] B. Paden and S. Sastry, "A calculus for computing filippov's differential inclusion with application to the variable structure control of robot manipulators," IEEE transactions on Circuits and Systems, vol. 34, pp. 73-8, 987. [] D. Shevitz and B. Paden, "Lyapunov stability theory of nonsmooth systems," IEEE Transactions on Automatic Control, vol. 39, no. 9, pp , al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9

19 CONTROL INDIRECTO PARA EL CONVERTIDOR BOOST UTILIZANDO PLANITUD DIFERENCIAL CON MODOS DESLIZANTES Indirect control for BOOST converter using differential flatness with sliding mode Resumen En este trabajo se presenta el control indirecto para el seguimiento de trayectoria del voltaje de salida de un convertidor Boost utilizando modos deslizantes con planitud diferencial, se considera que el convertidor Boost trabaja en modo continuo. El objetivo del control indirecto es hacer que el voltaje salida del convertidor siga una trayectoria deseada que es impuesta por la parte que corresponde a planitud, así mismo modos deslizantes es el encargado que se cumpla la tarea de seguimiento de trayectoria. La robustez del control es probada por medio del cambio de la resistencia de carga lo cual se verifica con una simulación utilizando el software Matlab-simulink. Palabras clave Convertidor Boost, Modos deslizantes, Planitud diferencial. LEOPOLDO GIL ANTONIO Ingeniero en Electrónica, M. Profesor Investigador Tecnológico de Estudios Superiores de Jocotitlán lgilant7@yahoo.com.mx ALEJO ELEUTERIO ROBERTO Ingeniero en Computación, Dr. Profesor Investigador Tecnológico de Estudios Superiores de Jocotitlán ralejoll@hotmail.com LÓPEZ GONZÁLEZ ERIKA Ingeniero en Computación, M. Profesor Investigador Tecnológico de Estudios Superiores de Jocotitlán lz_erika_gz@yahoo.com.mx ANTONIO VELÁZQUEZ JUAN A. Ingeniero en Computación, M. Profesor Investigador Tecnológico de Estudios Superiores de Jocotitlán juanjonatan@yahoo.com.mx. INTRODUCCIÓN Los convertidores de potencia de CD-CD (corriente directa) son circuitos electrónicos asociados a la conversión, control, y acondicionamiento de energía eléctrica donde la potencia de salida puede ser de unos cuantos miliwatts a megawatts. La fiabilidad de estos convertidores de potencia es clave ya que deben ser robustos con el fin de lograr una vida útil elevada. Dentro de las topologías de los convertidores de CD-CD tenemos: Buck, Boost y Buck-Boost, las cuales tienen diferentes características. En este trabajo se considera la topología Boost que tiene como característica principal que el voltaje salida siempre es mayor al voltaje de entrada, por esta razón es necesario tener una ley de control que realice este propósito, además es necesario evitar cambios bruscos en la corriente y el voltaje lo que ayuda aumentar la vida útil de los dispositivos a los cuales se conecte el convertidor. Para el convertidor de potencia de CD-CD Boost se pueden aplicar dos tareas de control la de regulación y la de seguimiento de trayectoria del voltaje de salida. Respecto a esto se han hecho diferentes trabajos en [] se hace un informe de la técnica de control por modos deslizantes, que es una técnica de control discontinua, que en forma natural es apropiada para la regulación de los sistemas conmutados, como el convertidor de potencia Boost. Por otro lado en [] se encuentran diferentes tipos de control para la regulación del voltaje de salida de diferentes topologías de sistemas convertidores de potencia de CD-CD. Otra exposición clara del control por modos deslizantes de sistemas no lineales y sus implicaciones en la regulación de convertidores de potencia de CD-CD monovariables y multivariables se encuentra en [3]. Por otra parte, en [4] propone un control basado en planitud para el seguimiento de trayectoria del voltaje de salida para sistemas de fase no mínima, aunque existan variaciones en la fuente de alimentación, también se implementa un método para la reducción de la interferencia electromagnética. Por otra parte, [5] 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

20 propone un control predictivo para la tarea de regulación de la corriente de un convertidor Boost donde se observa que el calor de referencia de la corriente se alcanza rápidamente, se prueba el control experimentalmente como en simulación. En [6] presenta un control para la tarea de regulación utilizando modos deslizantes donde el control se prueba su robustez haciendo cambios tanto en la carga y variando el voltaje de entrada, el control se prueba usando simulaciones digitales. Este trabajo presenta una ley de control indirecto para el seguimiento del voltaje de salida del convertidor Boost considerando que existen cambios en carga resistiva que alimenta el convertidor Boost, para lograr lo anterior se utiliza modos deslizantes y planitud diferencial.. MODELO DEL CONVERTIDOR La obtención de la dinámica del convertidor Boost se consigue mediante la aplicación de las leyes de voltaje y corriente de Kirchhoff en cada uno de los circuitos equivalentes del convertidor que se forman al conmutar u. El primer circuito se produce cuando el interruptor se localiza en u=, y el segundo circuito aparece cuando el interruptor se coloca en u=0. Figura. Diagrama eléctrico del convertidor Boost. Fuente: Direct Model Predictive Current Control Strategy of DC-DC Boost Converters [5]. diferencia entre uno y otro, sería que el modelo promedio se asocia con la entrada de control promedio av, mientras que para el modelo conmutado la entrada de control sería u. De esta manera, la característica que distingue a un modelo del otro sería la entrada de control. Entonces, el modelo promedio del convertidor Boost se describe por: Con:, - ( ) ( ) 3. PUNTO DE EQUILIBRIO El objetivo de control que se desea lograr en el convertidor CD-CD Boost, consiste en tener el control de la entrada promedio av, tal que el voltaje de salida del convertidor, siga una señal de referencia deseada o se regule a valor constante deseado. Por esta razón es importante conocer el comportamiento en estado permanente del convertidor. En estado permanente, asociado al punto de equilibrio del sistema, la razón de cambio de las variables de estado, corrientes y voltajes, deben ser igual a cero. En consecuencia, la entrada de control también debería permanecer constante, es decir, El modelo promedio del convertidor Boost asociado a un valor constante de la entrada de control, genera el siguiente sistema: () Las dinámicas que se obtienen a partir de la conmutación de u se pueden unificar en el sistema bilineal () que se representa de la siguiente manera: ( ( ) ( ) + ( *. / () ( ) ( ) () La solución de este sistema para el valor en equilibrio en estado permanente de y esta dado por: ( ) ( ) () Ya que cuando o se obtiene las dinámicas que se generan los sistemas de ecuaciones que resultan de conmutar a Al modelo representado por () se le denomina modelo conmutado, y en ocasiones se hace énfasis sobre la naturaleza del valor binario asociado a la función de posición del interruptor u, es decir * +. El modelo promedio se podría representar exactamente por el mismo modelo matemático (), con la diferencia de que ahora la entrada denotaría la entrada de control promedio que toma valores en el intervalo {0,}. La El punto de equilibrio del sistema en términos del voltaje de salida deseado (3) De esta manera, a partir de la ecuación (), la función de transferencia estática promedio del convertidor Boost está dada por: 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

21 ( ) ( ) (4) A partir de la ecuación (4), se observa que la ganancia de voltaje del convertidor es mayor o igual a uno, por esta razón al convertidor de potencia Boost se nombra como elevador de voltaje, ya que a través de la variación de la entrada promedio, se puede controlar el voltaje de salida a un valor deseado. A partir del modelo del convertidor que se representa en () donde es la corriente a través de la bobina, es el voltaje que se mide en las terminales del capacitor y es la posición del interruptor, donde * +. son respectivamente la resistencia de carga, la capacitancia del filtro de salida, la inductancia de entrada y la fuente de voltaje externa del convertidor Boost. Considerando ( ) y como constantes, el sistema () queda representado de la siguiente manera: La gráfica de la función de transferencia estática del convertidor Boost se puede ver en la Figura. Pero debido a las pérdidas en los componentes usados existe un límite de amplificación de voltaje ya que entre más se acerque a la unidad, se observan más pérdidas. Figura. Grafica de la función de transferencia del convertidor Boost.. / ( +. / (, ( + (4) Como se mencionó el diseño del control para seguimiento de trayectoria del voltaje de salida del convertidor Boost se utiliza un control por regímenes deslizantes en combinación con planitud diferencial, para hacer que el voltaje de salida adopte una trayectoria deseada. En primer lugar se obtienen los campos vectoriales del sistema Boost a partir de la ecuación (4). ( ) (, ( ) (, (5) Fuente: Direct Model Predictive Current Control Strategy of DC-DC Boost Converters [5]. 4. CONTROL PARA EL SEGUIMIENTO DE TRAYECTORIA DEL VOLTAJE DE SALIDA DEL CONVERTIDOR BOOST 4. Modos Deslizantes En esta parte se desarrolla el control para el seguimiento de trayectoria del voltaje de salida del convertidor Boost utilizando modos deslizantes o regímenes deslizantes que se considera una técnica de control discontinua apropiada para la regulación de sistemas conmutados como el convertidor de potencia de CD Boost, así mismo también se utiliza planitud diferencial para la planeación de la trayectoria del voltaje de salida del convertidor. Probando con un control directo es decir con la superficie ( ) se encontró que la dinámica remanente es inestable de acuerdo con la teoría de estabilidad de Lyapunov por esta razón se procede a utilizar un control indirecto donde la función coordenada de la superficie de deslizamiento que al hacerse cero reproduzca el valor deseado de la corriente y por este medio se controle el voltaje de salida del convertidor, i.e. ( ) (6) Para lograr lo anterior calculamos el punto de equilibrio del sistema en condiciones ideales de deslizamiento, escribiendo la corriente en términos del voltaje de salida deseado, es decir: (7) 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

22 Para saber que el control funciona, nuevamente se procede a calcular el control equivalente por medio de ( ) y ( ), quedando de la siguiente manera: { si ( ) si ( ) Es decir el control está dado por: (3) ( ) ( ) ( ) (, =, sign( ( ))- (4) ( ) ( ) ( ) (, (8) Donde es la corriente en el inductor e representa la trayectoria deseada. 4. Planitud Diferencial 4.. Generación de trayectorias Entonces ahora se tiene que el control equivalente que está dado por: ( ) ( ) (9) La generación de trayectorias de referencia se lleva a cabo por medio de la propiedad de planitud diferencial que satisface al convertidor Boost. Para lograrlo se plantea la matriz de controlabilidad, que se calcula, ( ) [ ], donde se utilizan los campos vectoriales ( ) y ( ) Y la dinámica ideal de deslizamiento ocurre ( ), donde la dinámica remanente queda de la siguiente manera: (0) ( ) (, (5) Resolviendo el determinante de la matriz de controlabilidad se obtiene: Para probar la estabilidad de la dinámica remanente se utiliza la teoría de Lyapunov considerando la función candidata como: ( ) () ( ) ( * (6) Donde se observan dos singularidades cuando e A, por lo cual la matriz de controlabilidad es invertible excepto en esos puntos. Para encontrar la salida plana F se debe tener en cuenta que debe satisfacer la condición ( ) ( ), ( )- Considerando la derivada de la función candidata y que se obtiene: ( )( ) () Como la anterior ecuación es definida negativa alrededor del punto de equilibrio la dinámica ideal de deslizamiento exhibe un punto de equilibrio asintóticamente estable. A partir de lo anterior, la superficie de deslizamiento es alcanzable, mediante la siguiente política de conmutación:. / ( *. / ( * 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3 (7) Resolviendo la primer ecuación de (7) se halla la salida plana, que es representada de la forma: ( ) (8) Derivando la salida plana y sustituyéndola en (7), se observa que las condiciones ( ) ( ), ( )- se cumplen. Por lo anterior, todas las variables del sistema y la entrada de control son parametrizables en

23 función de la salida plana (8) y sus derivadas, i.e., ( ) ( ) 4 ( )5, ( )- ( ) ( ). ( ))/ ( ) ( ) ( * ( ( ) ( )) (8) 5. PRUEBA Y SINTESIS DEL CONTROL Una vez que el control se desarrolla se procede a probarlo a través del software Matlab-Simulink, para lograr la síntesis del control se utilizan tres bloques: bloque salida plana, bloque variables nominales y bloque controlador. Figura 3. Diagrama a bloques del controlador. Fuente: Control por Modos Deslizantes y Planitud Diferencial de un Convertidor de CD/CD Boost: Resultados Experimentales [4]. La tarea de seguimiento de trayectoria sirve para regular la trayectoria del sistema entre dos puntos de equilibrio de una forma suave que expresados en términos de los voltajes deseados se expresan en la forma ( ), ( ), considerando esto para seguir una trayectoria nominal correspondiente a La corriente se puede expresar en términos del voltaje de salida deseado de la forma ( ) ( ) Los valores asociados a los puntos de equilibrio a la salida plana son: ( ) 4 5 ( ) 4 5 (9) Que representan los puntos de transferencia de energía asociada a los puntos de equilibrio deseados. Entre los puntos ( ) y ( ) se propone una trayectoria nominal de manera que se interpolen suavemente, en el intervalo, - considerando: ( ), ( ) ( )- ( ) (0) Donde ( ) es una función polinomial entre los valores 0 y definida por: En el bloque salida plana se programa el tiempo de inicio y final de la trayectoria ( ), así como el valor de las energías en equilibrio asociadas al tiempo inicial y final de la trayectoria, denotadas ( ) y ( ), respectivamente. Las salidas de este bloque son: ( ) y sus derivadas sucesivas de primer y segundo orden, i.e, ( ) y ( ). El perfil de energía nominal, se especificó utilizando el polinomio de Bézier (0), que es una función polinomial que se interpola de acuerdo a (). Por otro lado, en el bloque variables nominales se programan las trayectorias nominales ( ) ( ) y ( ) determinadas por (8) y requeridas por el bloque controlador.las entradas de este bloque son: ( ) ( ) y ( ) que provienen del bloque salida plana, entre tanto, el bloque controlador se programa el control (4) y el modelo del convertidor (), las señales de entrada de este bloque son ( ) y ( ) que provienen del bloque variables nominales. Para realizar las simulaciones y prueba de la robustez del control se utilizan los siguientes parámetros: mh, µf, Ω, Ω, Ω, V Considerando que el punto de equilibrio inicial del convertidor es de acuerdo con: Para: ( ) [ ( ) ( )] 6 7 ( ) ( * 6 ( * ( * Así mismo el valor del punto final de equilibrio tiene un valor de: ( * ( * ( * 7 () [ ( ) ( )] 6 7 Para: Para: ( ) ( ) Donde s y s considerando que la transferencia de energía asociada a los puntos de equilibrio deseados es: 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

24 Congreso Internacional de Investigación Tijuana. Revista Aristas: Investigación Básica y Aplicada. ISSN , Vol. 4, Núm. 7. Año 05. ( ) 4 ( ) 5 ( ) 4 5 ( ) 6. RESULTADOS La primer prueba que se hizo fue considerando una resistencia de carga de 0 Ω sin existir un cambio en la misma considerando los parámetros antes descritos se puede observar que las trayectorias tanto como y como son similares. Figura 3. Señales de salida de convertidor considerando una resistencia de carga de 0 Ω. Fuente: Elaboración propia a partir de Matlab-Simulink. La tercera prueba realizada fue considerando una resistencia de carga de 0 Ω, variando esta 00 Ω a un tiempo de.6 s los resultados se muestran Figura 5. Figura 5. Señales de salida de convertidor considerando un cambio en la resistencia de carga de 00 Ω a.6 s. Fuente: Elaboración propia a partir de Matlab-Simulink. La segunda prueba que se realizo fue considerando una resistencia de carga de 0 Ω, variando esta 50 Ω a un tiempo de.6 s Figura 4. Figura 4. Señales de salida de convertidor considerando un cambio en la resistencia de carga de 50 Ω a.6 s. Fuente: Elaboración propia a partir de Matlab-Simulink. 7. CONCLUSIONES 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

25 La simulación del control indirecto utilizando modos deslizantes en combinación con planitud diferencial presentado en este trabajo para el convertidor Boost, se observa que el control es robusto con respecto a la corriente ya que aunque existan cambios en la resistencia de carga el control funciona correctamente lo que indica que es robusto. Con respecto al voltaje se observa que existen diferencias entre el voltaje deseado y la salida de voltaje del convertidor lo que implica buscar una técnica de control directo que ayude a mantener fijo el voltaje ante los cambios de la resistencia de carga. 8. REFERENCIAS [] Utkin V., Guldner J., Shi J. Sliding mode control in electromechanical systems, London: Taylor and Francis, 999. [] H. Sira-Ramirez H., Silva Ortigoza R., Control Design Techniques, London: Springer, 006. [3] Sira-Ramirez H., Sliding mode sigma modulators and generalized proportional integral control of linear systems Asian J of control 5: , 003. [4] Silva-Ortigoza R., Sira-Ramírez H., Hernández Guzmán V. M. Control por Modos Deslizantes y Planitud Diferencial de un Convertidor de CD/CD Boost: Resultados Experimentales, Revista Iberoamericana de Automática e Informática Industrial, vol. 5, Numero 4, 77-8, 008. [5] Karamanakos P., Geyer T. and Manias S. Direct Model Predictive Current Control Strategy of DC-DC Boost Converters IEEE JournaL of Emerging and Selected Topics in Power Electronics, Vol., No. 4, December 03. [6] Guldemir H. Sliding Mode Control of DC-DC Boost Converter, Journal of Applied Sciences, 005. Gil Antonio Leopoldo: Ingeniero en Electrónica y de Comunicaciones con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con más de 0 años de experiencia. Alejo Eleuterio Roberto: Ingeniero en Computación con estudios de Maestría en Ciencias Computacionales y Doctorado en Sistemas Informáticos Avanzados. Profesor a nivel licenciatura y posgrado con más de 0 años de experiencia. López González Erika: Ingeniero en Computación con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con 8 años de experiencia. Antonio Velázquez Juan A.: Ingeniero en sistemas computacionales con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con más de 9 años de experienc 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

26 DESARROLLO DE UN SIMULADOR BASADO EN EL ROBOT IRB40 DE ABB PARA LA ENSEÑANZA DE LA ROBÓTICA Development of a simulator based in ABB's robot IRB40 for teaching in robotic Resumen Este trabajo presenta una contribución al desarrollo de un simulador utilizado como recurso educativo digital en la enseñanza del modelado cinemático de robots manipuladores dentro de la materia de robótica. La idea de enriquecer esta herramienta se debe a ciertos inconvenientes encontrados en los procesos de enseñanza y de aprendizaje de la robótica. Los típicos inconvenientes en la enseñanza de esta materia, están relacionados con el entendimiento del funcionamiento de robots manipuladores. Mostrar el modelado cinemático de robots, sin la posibilidad de contar con estos, es un problema. Las tecnologías de la información y de comunicación (TIC s) constituyen un gran apoyo para desarrollar recursos educativos que permitan mejorar los procesos de enseñanzaaprendizaje de materias con este tipo de contenidos. En particular, en esta etapa de desarrollo del recurso educativo, se recurre al modelo del robot IRB40 proporcionado directamente por el fabricante de robots ABB. Se continúa utilizando el lenguaje de alto nivel y entorno interactivo para el cálculo numérico, visualización y programación, Matlab, para el desarrollo de esta herramienta de simulación. Ante esta problemática, el uso de este recurso educativo digital para la materia de robótica, facilitará la transferencia de conceptos matemáticos, informáticos, científicos y tecnológicos. Palabras clave Recurso Educativo Digital, Robótica, Simulador, Software Educativo. FERNÁNDEZ RAMÍREZ ARNOLDO Mecánico de Sólidos, Dr. Profesor Investigador Instituto Tecnológico de Nuevo León arnoldo_fr@yahoo.fr CUAN DURÓN ENRIQUE Ingeniero en Electrónica, Dr. Responsable de cuerpo académico en Ingeniería de Software del posgrado en Sistemas Computacionales Instituto Tecnológico de La Laguna kcuand@gmail.com URQUIZO BARRAZA ELISA Administrador Estratégico, Dra. Líder de la Línea de Investigación de Tecnología Aplicada a la Educación del posgrado en Sistemas Computacionales Instituto Tecnológico de La Laguna elisaurquizo@gmail.com GARCÍA ANDRADE ROXANA Ingeniero en Electrónica en Instrumentación Profesor Investigador Instituto Tecnológico de Nuevo León roxana_garciaandrade@yahoo.com. INTRODUCCIÓN La simulación de un sistema puede ser considerada como el proceso de representar un sistema real mediante la implementación de un modelo que permita realizar experimentos []. El uso de la simulación trae consigo beneficios como costo, ahorro de tiempo, reducción de riesgo y en el caso específico de trabajar con dispositivos que se mueven siguiendo leyes, sin la posibilidad de contar con estos, es un problema, el uso de la simulación mediante el empleo de las tecnologías de la información y la comunicación (TIC s) constituyen valiosos recursos para desarrollar estrategias que apunten a mejorar los procesos de enseñanza y de aprendizaje de materias con estos contenidos o similares. El propósito de realizar experimentos mediante una simulación es el de entender el comportamiento o evaluar estrategias para la operación de un sistema sin requerir la construcción o experimentación con el sistema físico real. En una simulación por método analítico, se hacen suposiciones acerca del sistema y se derivan algoritmos y relaciones matemáticas para describir su comportamiento. El presente trabajo plantea mejoras en el desarrollo de un simulador utilizando Matlab, el cuál puede ser usado como un recurso digital que ahora simula el comportamiento cinemática inverso de la estructura de un robot manipulador. Este comportamiento resultante del modelado inverso del manipulador se podrá visualizar en 3D. Gracias a su diseño gráfico, será de gran ayuda en la docencia ya que puede funcionar como un laboratorio virtual de la materia de robótica Industrial, ayudando a que los alumnos comprendan de mejor manera los aspectos matemáticos. Actualmente se puede encontrar un gran número de simuladores de robots manipuladores. Algunos presentan grandes limitaciones debido a las licencias de uso y distribución [], [3] y [4]. En otros casos no se ha podido encontrar mayor 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

27 información o el código fuente no está disponible o no es ejecutable [5] y [6]. En la primer etapa de desarrollo de este proyecto, la idea ha sido dejarlo a disposición, tanto del profesor como del estudiante, para que ellos mismo puedan modificarlo e incrementar funciones que enriquezcan al simulador [7], en el cual se utilizan una geometría muy simple basada en prismas rectangulares para el modelado de los elementos o eslabones móviles del robot, como se muestra en la figura. En [8] se han agregado componentes y funcionalidades al simulador, entre dichos componentes está la posibilidad de visualizar una representación simplificada del robot, utilizando líneas, para los eslabones móviles y cilindros para las articulaciones de revolución. La representación del nivel suelo y de marcos referencia en cada uno de los eslabones móviles.. PROBLEMA El presente trabajo plantea la implementación de un simulador del robot IRB40, del fabricante ABB, utilizando el lenguaje de alto nivel Matlab, el cuál puede ser usado como un recurso digital de apoyo en la enseñanza de la robótica con interfaz gráfica, que simule el comportamiento cinemático de la estructura de robots manipuladores. En la figura, se muestra la ventana principal del simulador presentado en [7]. La utilización del modelo cinemático inverso de posición permite la realización de trayectorias en el espacio operacional. 3. ENFOQUE, METODOS En la etapa de desarrollo actual, se utiliza modelo cad del robot IRB40, obtenido del sitio web del fabricante ABB [9] para representarlo, es un robot con seis grados de libertad o variables independientes. Los eslabones están unidos mediante articulaciones. Además, se puede seleccionar la visualización de un esquema simplificado, con todos los marcos de referencia asignados a cada eslabón. En el esquema simplificado, se representa como en [8]. En [7], se presentó la metodología para obtener el modelo cinemático directo de posición que es el siguiente: x = f (q) () Dónde: x: es el vector de coordenadas operacionales que representa la posición y la orientación del eslabón final. q: es el vector de coordenadas articulares que representa la configuración del robot. El modelo directo de posición se expresa como: T = T T... T () En el cuadro se presentan de forma simbólica y explícita cada una de las matrices 0 5 la ecuación anterior. T, T,..., T de 6 Cuadro. Matrices de transformación hom*ogénea Figura. Simulador del robot Motoman K6SB. T C -S 0 0 S C T C -S 0 D S C T C3 -S3 0 D3 S3 C T C4 -S4 0 D4 0 0 R 4 S4 C T C5 -S S5 C T C6 -S S6 C Fuente: Elaboración propia a partir de Matlab. Desarrollo de un Recurso Educativo Digital de apoyo a la Materia de Robótica. Fuente: Desarrollo de un Recurso Educativo Digital de apoyo a la Materia de Robótica [7]. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8

28 El modelado cinemático inverso de posición se presenta a continuación, cabe mencionar que permitirá obtener todas las configuraciones posibles de un robot correspondientes a una localización dada del órgano terminal (la posición y la orientación). Este modelo es llamado generalmente la forma cerrada del modelo cinemático inverso. No hay una solución general para obtener este modelo. f Sea ET d la matriz de transformación deseada que define la localización de la herramienta del órgano terminal con respecto al marco fijo. En general, f ET d se puede escribir como: f E T d = Z 0 nt E (3) Donde: Z = f 0T es la matriz que define al marco 0 de la base en el marco fijo de referencia f. E = n ET es la matriz que define al marco E de la herramienta del órgano terminal en el marco del eslabón terminal n. Asumiendo que se especifican tanto el emplazamiento del manipulador en la estación de trabajo, así como la geometría de la herramienta del órgano terminal, se tiene que las matrices Z y E son conocidas. Agrupando entonces del lado izquierdo de la ecuación anterior todos los términos conocidos, se tiene: Haciendo ahora: Z - f ET d E - = 0 nt (4) U 0 = Z - f ET d E - (5) U 0 = 0 nt (6) El problema del modelo inverso, entonces, consiste en obtener las variables articulares tales que sustituidas en 0 n T la ecuación se satisfa*ga: 0 n T = 0 T T... n- nt (7) Remplazando esta ecuación en el lado derecho de la ecuación anterior se tiene: U 0 = 0 T T... n- n (8) Para un robot de seis grados de libertad, de la premultiplicación de ambos lados de la ecuación U 0 = 0 T T... n- n T por 0T se obtiene: Con U 0 = 0 T T 3T 3 4T 4 5T 5 6T (0) U = T 3T 3 4T 4 5T 5 6T () U = 3T 3 4T 4 5T 5 6T () U 3 = 3 4T 4 5T 5 6T (3) U 4 = 4 5T 5 6T (4) U 5 = 5 6T (5) U j = j T j- U j-. El anterior grupo de ecuaciones es llamado en sentido directo. En el cuadro, se presentan de forma explícita las ecuaciones para resolver el modelo inverso de posición del robot IRB40. Cuadro. Modelado cinemático inverso de posición robot IRB40. Q = ATAN(-PY,-PX) O Q = ATAN(-PY,-PX)+80 B = -C*PX-S*PY+D X = -*PZ*D3 Y = +*B*D3 Z = +R4*R4+D4*D4-D3*D3-B*B-PZ*PZ D = X*X+Y*Y W = SQRT(D-Z*Z) E = ± C = (Y*Z-E*X*W)/D S = (X*Z+E*Y*W)/D Q = ATAN(S,C) D = +R4*R4+D4*D4 S3 = +(B*S*D4+PZ*C*D4+PZ*S*R4-B*C*R4- D3*R4)/D C3 = -(B*S*R4+PZ*C*R4- PZ*S*D4+B*C*D4+D3*D4)/D Q3 = ATAN(S3,C3) Q5 = ARCOS(+S(#3)*C*AX+S(#3)*S*AY- C(#3)*AZ) B = +S*AX-C*AY B4 = +C(#3)*C*AX+C(#3)*S*AY+S(#3)*AZ S4 = +B/S5 C4 = +B4/S5 Q4 = ATAN(S4,C4) 0 T U 0 = T 3T 3 4T 4 5T 5 6T (9) El lado derecho es función de las variables 6, mientras que el lado izquierdo es función de. puede ser obtenido por identificación de uno o dos elementos de ambos lados de la ecuación previa. Similarmente, se obtienen: B6 = -S(#3)*C*NX-S(#3)*S*NY+C(#3)*NZ B8 = -S(#3)*C*SX-S(#3)*S*SY+C(#3)*SZ S6 = -B6/S5 C6 = +B8/S5 Q6 = ATAN(S6,C6) Fuente: Desarrollo de un Recurso Educativo Digital de apoyo a la Materia de Robótica [7]. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9

29 4. RESULTADOS Figura 3. Simulador del robot IRB40 de ABB. Antes de proceder a la presentación de los resultados de la versión del desarrollo actual, en la figura, se muestra la versión precedente del simulador [8]. En cada versión del simulador se persigue la finalidad de que, en la medida de lo posible, continúe siendo fácil de utilizar, por un lado, como entrada, los valores de las variables articulares, mediante cajas de edición y barras deslizadoras como en [7]. En [8] se cuentan con las siguientes funciones a) Visualización de la solución del modelo cinemático directo de posición. b) Visualización de marcos de referencia. c) Visualización de un esquema simplificado. d) Visualización del nivel suelo. Estas algunas de estas funciones se ilustran en las figuras 3, 4 y 5. Figura. Simulador del robot Motoman K6SB. Fuente: Elaboración propia a partir de Matlab. Contribución al Desarrollo de un Recurso Educativo Digital de Apoyo a la Enseñanza de Robótica [8]. Para ilustrar la resolución del modelo cinemático directo de posición, se dio click, primero, en la barra deslizadora correspondiente a q para pasar del valor de 90 a 45, luego en la barra deslizadora correspondiente a q 3 para pasar del valor de 0 a 45. Las variables articulares de q = [ 0, 90, 0, 0, 0, 0 ], pasaron a q = [ 0, 45, 45, 0, 0, 0 ]. Eso mientras la posición de referencia en el último eslabón móvil paso de x = 47.5, y = 0, z = 56.0 a x = 7.95, y = 0, z = 45.46, estos cambios se ilustras en la figura 4. Se actualizaron los valores en las cajas de edición correspondiente, además se actualizo la matriz de transformación hom*ogénea. Figura 4. Determinación del modelo cinemático directo de posición. Fuente: Elaboración propia a partir de Matlab. Contribución al Desarrollo de un Recurso Educativo Digital de Apoyo a la Enseñanza de Robótica [8]. A continuación, en la figura 3, se muestra el simulador objeto del presente artículo. Fuente: Elaboración propia a partir de Matlab. Contribución al Desarrollo de un Recurso Educativo Digital de Apoyo a la Enseñanza de Robótica [8]. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

30 Figura 5. Visualización de los marcos de referencia. contemplar la adición de más robots a una base de datos de robots. Teniendo como base el simulador actual se está en medida de poder implementar algoritmos para la planificación de trayectorias con los modelos cinemáticos implementados. Una vez probados se pueden proponer modificaciones o alternativas para robustecer las ventajas de contar son un simulador de este tipo. 6. REFERENCIAS Fuente: Elaboración propia a partir de Matlab. Contribución al Desarrollo de un Recurso Educativo Digital de Apoyo a la Enseñanza de Robótica [8]. Figura 6 Visualización del esquema simplificado. Fuente: Elaboración propia a partir de Matlab. Contribución al Desarrollo de un Recurso Educativo Digital de Apoyo a la Enseñanza de Robótica [8]. 5. CONCLUSIONES En el presente trabajo se presenta una nueva fase de desarrollo de un simulador de robots manipuladores el cuál puede ser utilizado como un recurso digital de apoyo en la materia de robótica. La utilización de los modelos CAD para la representación gráfica del robot IRB40 de ABB, nos permite, tener la confiabilidad, de que la simulación realizada se puede llevarse a cabo por el robot real. Se han implementado todas las funciones necesarias para el desarrollo de los algoritmos de cinemática inversa, además, se cuenta con una interfaz gráfica con visualización en 3D que contiene mejoras respecto a las primeras fases de desarrollo y es posible manejar las funciones del simulador desde la línea de comandos en Matlab. En base al desarrollo actual, es posible [] Smith, R. D. Simulation, cuarta ed. New York: Grove s Dictionaries, July 000. [] Camelot-robot off line programming. [Online]. Available: [3] Easy-rob: 3d robot simulation tool. [Online]. Available: [4] Corke, P. I. A robotics toolbox for matlab, Robotics & Automation Magazine, IEEE, vol. 3, no., pp. 4 3, Mar [5] Salazar-Silva, G. H., Martinez-Garcia, J. C. y Garrido, R. Enhancing basic robotics education on the web, in American Control Conference, 999. Proceedings of the 999, vol., 999, pp vol.. [6] Morales H. y Cruz C., Edisim: editor y simulador de robots manipuladores, in o Congreso Nacional de Electrónica, Puebla, México, Sep. 00. [7] Cuan Duron E., Fernández Ramírez A. y Urquizo Barraza E. Desarrollo de un Recurso Educativo Digital de apoyo a la Materia de Robótica.,Tecnologías y Aprendizaje. Avances en Iberoamerica, Vol., 03, 70-75, ISBN: ]. [8] Cuan Duron E., Fernández Ramírez A., Urquizo Barraza E, García Andrade R., Contribución al Desarrollo de un Recurso Educativo Digital de Apoyo a la Enseñanza de Robótica., Congreso Internacional de Investigación AcademiaJournals.com Celaya 04, ISSN: , 04, Vol. 6, N 5, [9] Robot IRB40 de ABB. Dr. Arnoldo Fernández Ramírez: es Doctor en Mecánica de Sólidos por la Universidad de Poitiers, República Francesa. Este autor es profesor de las carreras de Mecatrónica y Electromecánica. Dr. Enrique Cuan Durón: es Doctor en Ciencias en Ingeniería Eléctrica por Instituto Tecnológico de La Laguna en Torreón Coahuila, México y la Universidad de Poitiers, República Francesa. Es responsable de cuerpo académico en Ingeniería de Software del posgrado en Sistemas Computacionales del Instituto Tecnológico de La Laguna. Dra. Elisa Urquizo Barraza: es Doctora en Administración Estratégica por el Instituto Internacional de Administración en Torreón Coahuila, México, Maestra en Sistemas Computacionales por el ITESM campus Laguna y Maestra en Educación por UIA plantel Laguna. Es la líder de la Línea de Investigación de Tecnología Aplicada a la Educación del posgrado en Sistemas Computacionales del Instituto Tecnológico de La Laguna. Ing. Roxana García Andrade es Ingeniero en Electrónica en Instrumentación por el Instituto Tecnológico de Nuevo León. es profesor de la carrera de Electrónica. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

31 DISEÑO E IMPLEMENTACIÓN DE UN MODULADOR DEMODULADO I/Q EN UN DSP- FPGA Resumen En este trabajo se realiza el diseño e implementación de las etapas de modulación y demodulación I/Q, para lo cual se toma una señal sinusoidal como señal de información. Se desarrolla una interfaz gráfica de usuario empleando el software Matlab que permite analizar el comportamiento de las señales a través de los bloques de modulación, demodulación I/Q, mediante la modificación de los parámetros: frecuencia de oscilación, amplitud de la señal, valor de la componente directa, fase, orden y la frecuencia de corte del filtro empleado en la etapa de demodulación para recuperar la señal de información. Posteriormente se implementa el modelo modulador/demodulador I/Q en Simulink obteniendo los mismos resultados que en la interfaz gráfica de usuario, y finalmente se implementa el diseño completo en un dispositivo DSP-FPGA. Palabras claves demodulación, Matlab, Simulink. THAIMÍ NIUBÓ ALEMÁN Centro de Investigación y Desarrollo de Tecnología Digital tniubo@citedi.mx J. APOLINAR REYNOSO HERNÁNDEZ Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE) apolinar@cicese.mx JOSÉ CRUZ NÚÑEZ PÉREZ Centro de Investigación y Desarrollo de Tecnología Digital, Instituto Politécnico Nacional (CITEDI-IPN) nunez@citedi.mx. INTRODUCCIÓN Existe una clara tendencia hacia un mayor uso de los sistemas digitales de comunicación. Los servicios de telefonía celular, analógicos hasta hace un par de años, hoy son todos de naturaleza digital. Lo mismo sucede con otros sistemas de comunicación, entre los que podemos mencionar servicios de telefonía, transmisión de datos, de radio digital, de distribución de contenido vía satélite y, desde luego, de televisión. En el ámbito de la televisión, aun cuando la mayor parte de las transmisiones radiodifundidas son de carácter analógico, comienzan aparecer las transmisiones digitales, las mismas que ya se han hecho presentes en las redes de cable y en otros sistemas de televisión de paga. Hoy en día es familiar encontrar hogares con cajas decodificadoras o "set-top boxes" que, entre otras cosas, permiten transformar las señales digitales de televisión recibidas, en una señal analógica que alimente los televisores convencionales. Como señal analógica la información es presentada por medio de una forma de onda electromagnética continua, mientras que en una señal digital, la información se representa en forma discreta con precisión finita. En una señal digital, una combinación única de bits ("unos" y "ceros") cuenta con un significado especial para un sistema de comunicación en particular []. Para que una señal, ya sea analógica o digital, pueda transmitirse eficientemente a través de un medio o canal de comunicación, es necesario contar con algún método de modulación. La modulación consiste en variar una o varias características (ya sea amplitud, frecuencia o fase) de una señal (portadora), en función de las variaciones de la señal que contiene la información a transmitir []. La popularidad de los sistemas digitales de comunicación no es producto de un capricho o de la casualidad. Un sistema digital ofrece múltiples ventajas respecto a uno analógico, como por ejemplo mayor inmunidad al ruido, menor consumo de energía eléctrica y menor costo [3]. Debido a esta clara transición hacia los sistemas digitales de comunicación, es necesario pensar en técnicas de modulación digital, que ofrecen una mayor capacidad para acarrear grandes cantidades de información. Adicionalmente, en comparación con lo analógico, las técnicas de modulación digital proveen transmisiones de mejor calidad, compatibilidad con servicios digitales de datos y mayor seguridad en la transmisión de información [4]. Las técnicas de modulación digital pueden agruparse en tres grupos, dependiendo de la característica que se varíe en la señal portadora. Cuando se varía la amplitud, la técnica demodulación digital que se utiliza se conoce como Modulación por Desplazamiento de Amplitud (ASK, por sus siglas en inglés). Si se varía la frecuencia o la fase, las técnicas empleadas serían la Modulación por Desplazamiento de Frecuencia (FSK) o la Modulación por Desplazamiento de Fase (PSK), respectivamente [5]. Cualquiera que sea la técnica de modulación digital empleada, la amplitud, la frecuencia o la fase de la señal portadora podrá tomar únicamente un número finito de valores discretos. En la segunda sección de este artículo se presenta la teoría fundamental relacionada con los moduladores y demoduladores IQ. En la tercera sección se presenta el proceso de simulación del módulo moduladordemodulador IQ usando Matlab/Simulink. Posteriormente en la cuarta sección se detalla la el proceso de implementación del sistema en un dispositivo DSP-FPGA. Finalmente las conclusiones se presentan en la sección cinco. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

32 . MODULADOR Y DEMODULADOR I/Q La modulación de amplitud en cuadratura es una modulación digital avanzada que transporta datos cambiando la amplitud de ondas portadoras las cuales poseen igual amplitud pero desfasadas 90 grados [6]. En este tipo de modulación dos fuentes independientes de datos son transmitidas por el mismo canal. Esto es posible porque una de las señales modula linealmente la envolvente de una señal coseno, mientras que la otra modula independientemente la envolvente de una señal seno. La amplitud y la fase de una señal pueden modularse simultáneamente o por separado, aunque esta última resulta más difícil de generar y detectar. Lo que se hace en estos casos es descomponer la señal en componente de fase (conocida como componente I) y en cuadratura (componente Q) las cuales son ortogonales entre sí [7]. En las comunicaciones digitales es muy común encontrar las modulaciones digitales representadas mediante el uso de constelaciones bidimensionales I-Q [8]. De la figura se desprende que: ( ) ( ) () ( ) ( ) () Donde w c es la frecuencia de la señal portadora y S x es la señal de información. Pero fenómenos indeseables y presentes en los sistemas no lineales de RF como son la compresión de ganancia, un sistema ruidoso, ruido de fase, interferencia coherente, o un desequilibrio I/Q, producirán cambios en la constelación como acercamiento entre símbolos o alargamiento de la constelación lo que provocará una incorrecta demodulación en el lado del receptor [0]. Del lado del receptor para obtener correctamente la información es necesario demodular la señal, el esquema de demodulación I/Q se muestra en la Figura. Figura.Esquema demodulador IQ I(t) Tener representados todos los posibles símbolos de una modulación facilita el trabajo en el lado del receptor, el cual solo debe conocer el tipo de modulación que se empleó para transmitir los datos y proceder a su demodulación, obteniendo la fase y la amplitud de cada símbolo transmitido [9]. Cada símbolo se encontrará entre límites de decisión que servirán para que el demodulador decida en que zona se encuentra el símbolo recibido. SX 90 Osc Q(t) Fuente: Realización propia Si el canal de comunicación fuera ideal y no afectaran otros parámetros como el comportamiento no lineal del transistor, el símbolo transmitido se encontrará en la misma zona que el recibido y la información recibida será correcta. El esquema de modulación I/Q se muestra en la Figura. Figura. Esquema de modulación I/Q. I(t) Donde S x es la señal recibida modulada. ( ) ( ) (3) ( ) ( ) (4) En el demodulador se emplea la misma frecuencia de oscilación empleada en la modulación con el objetivo de recuperar la señal de información de forma correcta. Una vez obtenidas las señales en fase I (t) y Q (t) en cuadratura se suman ambas señales y son filtradas para recuperar la señal de información como se muestra en la Figura 3. S X SxModulada I(t) Figura 3.Señal demodulada. Osc + Filtro Pasa Bajas Sx Demodulada Q(t) Fuente: Realización propia Q ( t ) Fuente: Realización propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

33 3. SIMULACION EN MATLAB La interfaz gráfica de usuario (GUI) realizada en Matlab muestra el comportamiento del modulador y demodulador I/Q. Permite modificar los parámetros de la señal de información como su amplitud, frecuencia fase y offset. Del lado del modulador se puede variar la frecuencia de la señal portadora y observar de manera visual los cambios que sufre la señal modulada. Además, la simulación del demodulador permite también variar la frecuencia de la portadora para realizar la demodulación y las variaciones de la señal al tomar diferentes frecuencias de oscilación a la empleada durante la modulación En la Figura 4 se muestra la sección de la GUI que se encarga de construir la señal que se desea modular. Permite modificar los parámetros de señales sinusoidales como la frecuencia la fase, amplitud y componente de directa. Figura 3.Señal a transmitir. Figura 7.Señal demodulada en fase I(t). Fuente: Realización propia En la Figura 8 se muestra la señal de información, la cual se obtiene aplicando la señal recibida luego de introducirla en el esquema demodulador de la Figura y filtrarla empleando un filtro de Butterworth cuyo orden y frecuencia de corte pueden ser modificados para obtener una señal con mayor nitidez. Figura 8.Señal de información recuperada. Fuente: Realización propia Fuente: Realización propia Esta señal se introduce en el modulador mostrado en la Figura. En la Figura 4.se observan la sección de la interfaz que se encarga de la etapa de modulación graficando el resultado de las señales en fase en cuadratura y la señal a transmitir que no es más que la suma de las señales mencionadas anteriormente. Figura 4. Señal Modulada en Fase I (t). Para la recuperación de la señal se utilizó un filtro Butterworth de orden 5 y una frecuencia de corte igual a la frecuencia de oscilación empleada en el proceso de modulación y demodulación como se puede observar de la Figura, la señal recuperada es similar a la transmitida con un ligero rizo producido por el filtro. El modelo de modulación y demodulación de la Figura y Figura se implementaron en Simulink obteniendo los mismos resultados que los graficados con anterioridad. En la Figura 9 se muestra el modelo realizado en Simulink. Figura 9.Esquema de modulación y demodulación I/Q. Fuente: Realización propia Figura 6. Señal de salida del modulador. Fuente: Realización propia Fuente: Realización propia En la Figura 0.se muestra en el osciloscopio de Simulink la señal modulada a enviar. En la Figura 7 se muestra la sección de la interfaz encargada de graficar la señal en el lado del receptor demodulada en fase y en cuadratura y finalmente la señal de información recuperada. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

34 Figura 0. Señal modulada. Fuente: Realización propia En la Figura se muestra el kit de desarrollo empleado Cyclone III de Altera con la señal demodulada graficada en el osciloscopio. Figura. Tarjeta Cyclone III, Señal representada en el osciloscopio. En la Figura se grafica la señal recibida después de ser filtrada. Figura. Señal de información recuperada. Fuente: Realización propia 4. IMPLEMENTACION EN UN DPS-FPGA Se realizó la implementación del modelo de modulación y demodulación en la tarjeta de desarrollo Cyclone III de Altera obteniendo los mismos resultados que en simulación. En la Figura se muestran los bloques utilizados haciendo uso de la herramienta DSP Builder presente en Matlab que se encarga de traducir a VHDL el modelo implementado. Figura 0. Módulos del DSP-Builder y modelo de modulación y demodulación I/Q. Fuente: Realización propia La señal de salida del demodulador antes mencionado se muestra en la Figura. Figura.Señal de información demodulada Fuente: Realización propia Fuente: Realización propia Se pudo demostrar que la señal de salida del demodulador obtenida con el uso de software Matlab, en el modelo empleado en Simulink y finalmente la implementada en una tarjeta de desarrollo FPGA presentada en el osciloscopio físico son las mismas que la señal de información que se desea enviar y modulada en I/Q, arribando así a que los resultados obtenidos son satisfactorios. 5. CONCLUSIONES Con este trabajo se logró realizar un estudio de la teoría de modulación y demodulación I/Q, usando como principal el software Matlab, se obtuvo un modelo en Simulink y luego usando la herramienta el DSP-Builder se implementó en dispositivo FPGA usando la tarjeta de desarrollo Cyclone III de Altera. Este trabajo servirá de base para la implementación de trabajos futuros, entre los que destacan la implementación en un FPGA de un detector de fase para corrección de desequilibrio I/Q, conforme al estado del arte actual. 4. REFERENCIAS [] [ K. Asami, An algorithm to Evaluate Wideband Quadrature Mixers, IEEE ITC,Oct 007,pp.-7. [] J. K. Cavers, New Methods for Adaptation of Quadrature Modulators and Demodulators in Amplifier Linearization Circuits,IEEE Transaction on Vehicular Technology, Vol.46, No.3, Aug 997, pp [3] E.S. Erdogan,S. Ozev, Single-Measurement Diagnostic Test Method for Parametric Fault,IEEE VTS, Apr 008,pp [4] C.P. Lee, et al, A Highly Linear Direct- Conversion Transmit Mixer Transconductance Stage with Local Oscillation Feedthrough and I/Q Imbalance CancellationScheme,IEEE ISSCC,Feb.006,pp al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

35 [5] E.Nash, Correcting Imperfections in IQ Modulators to Improve RF signal Fidelity, AN-039, Application Note,Analog Device. [6] H. Choi, Donghoon Han, Chatterjee, A.., Enhanced Resolution Jitter Testing Using Jitter Expansion, IEEE VTS 007, pp: [7] S. Sen et al., Low cost AM/AM and AM/PM Distortion Measurement Using Distortion-to-Amplitude Transformations IEEE ITC 009. [8] Gu, Qizheng, RF system design of transceivers for wireless communications, Springer, 005. [9] Lei Ding, Zhengxiang Ma, Morgan, D.R., Zierdt, M., Tong Zhou, G., Compensation of Frequency- Dependent Gain/Phase Imbalance in Predistortion Linearization Systems, Circuits and Systems I: Regular Papers, IEEE Transactions on, Vol. 55, No., pp , Feb [0] Anttila, L., Valkama M., Renfors, M., Blind Compensation of Frequency-Selective I/Q imbalances in Quadrature Radio Receivers: Circularity-Based Approach, Acoustics, Speech and Signal Processing, 007. ICASSP 007. IEEE International Conference on, Vol. 3, No., pp.iii-45-iii-48, 5-0 April 007. Thaimí Niubó Alemán: Ingeniera en Telecomunicaciones y Electrónica por el Instituto Superior Politécnico José Antonio Echeverría, La Habana, Cuba. Estudiante de Maestría en Ciencias en Sistemas Digitales por el Centro de Investigación y Desarrollo de Tecnología Digital del Instituto Politécnico Nacional José Cruz Núñez Pérez: Recibió el grado del Maestro en Ciencias en Ingeniería Electrónica por el Centro Nacional de Investigación y Desarrollo Tecnológico (CENIDET), en Cuernavaca Morelos, México, en el 003, y el grado de Doctor por el Institut National des Sciences Apliquées de Lyon (INSA-Lyon), en Francia, en Diciembre 007. Durante el primer semestre del 008, fue Director de Investigación en la empresa Advanced Technology Research (ATR S.A. de C.V.) en Guadalajara Jalisco, México, en donde dirigió un equipo de investigadores en un proyecto de redes y arquitecturas de telecomunicaciones. Desde Agosto 008 se desempeña como Profesor Investigador en el Centro de Investigación y Desarrollo de Tecnología Digital (CITEDI) del Instituto Politécnico Nacional (IPN), en Tijuana, México, en el departamento de Telecomunicaciones. Ha publicado más de 50 artículos científicos internacionales. Sus intereses de investigación incluyen los siguientes temas: Micro y Nano electrónica, Modelado, Diseño y Control de Circuitos y Sistemas de Telecomunicaciones, Radio frecuencia y Microondas, Sistemas Digitales y Analógicos, Implementación en FPGA y DSP, Modelado de Transistores Bipolares. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

36 CONTROL DE POSICIÓN DE UN BICOPTERO MEDIANTE CONTROLADORES PID DIGITALES Position control of a bi-copter by PID digital controllers Resumen En este artículo se presenta una interfaz gráfica de computadora para la implementación de controladores PID digitales en motores de corriente directa. Mediante esta interfaz se puede realizar el control de posición de un prototipo al que se le llamo bicoptero el cual se describe detalladamente en las siguientes secciones. La finalidad de esta interfaz es poder tener una herramienta para poder variar los valores de las ganancias proporcional (P), integral (I) y derivativa (D) de un controlador PID digital y ver los efectos que se producen sobre el proceso o variable a la que se le está aplicando el controlador. La interfaz se desarrolló mediante la plataforma de programación grafica Lab-VIEW. Palabras clave Controlador PID digital, Interfaz de computadora. TRUJILLO TOLEDO DIEGO ARMANDO Ingeniero en Electrónica, M.C. Profesor Investigador Universidad Autónoma de Baja California dtrujillotoledo@uabc.edu.mx MIRANDA PASCUAL MARÍA ELENA Ciencias, M. Profesor Investigador Universidad Autónoma de Baja California memiranda@uabc.edu.mx REYES MARTÍNEZ ROBERTO ALEJANDRO Ciencias, M. Profesor Investigador Universidad Autónoma de Baja California roberto@uabc.edu.mx. INTRODUCCIÓN Algunas ventajas del control digital son la facilidad para modificar los controladores (reprogramación) y también el mayor nivel de integración del sistema que se puede lograr, por lo que en este documento se presenta una metodología para el diseño e implementación de un sistema de control discreto, el cual tiene como finalidad poner en práctica la teoría de diseño de controladores PID digitales. En la actualidad existen diferentes plataformas de programación visual en las cuales cuentan con herramientas para la implementación de sistemas de control algunas de estas son LabVIEW y Simulink, en estos programas es posible implementar sistemas de control y cambiar valores en diferentes parámetros del sistema sin necesidad de detener la simulación, en [-3] se muestran algunas aplicaciones. Para el desarrollo de la interfaz de prueba se utilizó el entorno LabVIEW [4], con ayuda de las funciones del modulo Control and design Simulation [5]. El diseño de controladores digitales para MENA QUEVEDO EUGENIO Estudiante de la carrera Ingeniería Electrónica de la Facultad de Ciencias. Químicas e Ingeniería, UABC. menaquevedo.eugenio@uabc.edu.mx AVILA DE LA TOBA JOSE Estudiante de la carrera Ingeniería Electrónica de la Facultad de Ciencias. Químicas e Ingeniería, UABC. avila.jose@uabc.edu.mx motores es de gran utilidad para aplicaciones como lo son control de velocidad y posición en vehículos no tripulados, industria o para fines de educación. Por lo que a manera de aplicación se comenzó a trabajar con pequeños motores de corriente directa con hélices.. DESCRIPCIÓN DEL SISTEMA La aplicación para esta interfaz de prueba fue el control de posición de un prototipo llamado bicoptero el cual cuenta con dos motores de DC con hélice, el sistema tiene una barra con un contrapeso, la cual eleva al eje donde están ubicados los motores a una posición de equilibrio. Véase la Fig., las hélices, dependiendo la velocidad del motor pueden rotar hacia un sentido según el motor que gire a mayor velocidad (izquierda o derecha), además el control implementado puede ubicar el eje que une a los dos motores en una posición entre 0 o y 90 o dependiendo de la dirección a la que se quiera girar. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

37 La inclinación del eje que soporta a los motores se mide mediante un giroscopio (sensor que entrega el ángulo en tres ejes x, y, z) ubicado en el centro del eje que soporta a los motores. Figura. Bicoptero (Prototipo de prueba). un valor de velocidad, lo mismo ocurre con la señal de inclinación enviada por el giroscopio, y mediante la resta de estas señales se obtiene la señal de error para el controlador PID. Figura. Diagrama a bloques del sistema de control. Fuente: Elaboración propia a partir de Introduction to LabVIEW [4]. Entonces mediante la interfaz de control se pueden ajustar tres tipos de movimientos, giro izquierda y giro hacia la derecha y elevación, en la Fig.. se muestran con flechas los sentidos en los que el prototipo se puede mover. 3. ESTRATEGIA DE CONTROL Un esquema de control de lazo cerrado calcula el error entre un valor medido y el valor al cual se desea ajustar al sistema. El principio básico de controlador PID analógico, cuya expresión matemática se muestra en la Ecuacion, es que actúa sobre la variable a ser manipulada a través de tres parámetros distintos: el proporcional, el integral, y el derivativo [6]. El valor Proporcional determina la reacción del error actual, el Integral genera una corrección proporcional a la integral del error, y derivativo determina la reacción del tiempo en el que el error se produce. La suma de estas tres acciones es usada para ajustar la salida de la planta o proceso que se está controlando. En nuestro caso se utiliza el modelo matemático del motor de corriente directa como base para diseñar los controladores digitales. ( ) () En la Figura se muestra el diagrama general del sistema el cual se manejó como un sistema de lazo cerrado para el control de velocidad de cada uno de los motores. Para generar la señal de error para el controlador se mide la velocidad del motor y el voltaje de alimentación en el momento en que el eje alcanza una posición de inclinación de 90 grados, este voltaje se utiliza como el voltaje máximo que se puede entregar a los motores. La velocidad medida en la máxima inclinación se utiliza para transformar una señal de referencia dada en grados a Fuente: Elaboración propia a partir de Sistemas de control en tiempo discreto [6]. Para el diseño del controlador para cada motor se utiliza la función de transferencia de velocidad que se muestra en la Ec.. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8 ( ) ( ) (( )( ) ) Una vez que se tiene la función de transferencia del motor se utiliza un método computacional para el diseño del control PID. Mediante este método se programa en Matlab la función de transferencia en lazo cerrado del motor, en este lazo cerrado se incluye el controlador PID como se muestra en la Fig. 3. Figura 3. Sistema de control de lazo cerrado. () Fuente: Elaboración propia a partir de Sistemas de control en tiempo discreto [6]. Mediante programación se da un intervalo de valores para cada tipo de acción del controlador y se va graficando la respuesta transitoria ante una entrada escalon unitario, de esta forma se van seleccionando los valores de Kp, Ki y Kd del controlador dependiendo del tipo de respuesta transitoria y tiempo de estabilización que se busque obtener. El mismo concepto de controladores PID analógicos se aplica también para los controladores PID digitales [6], con la diferencia de que la variable a ser manipulada es discreteada para poder cuantificarla y utilizarla dentro de

38 arquitecturas digitales donde se implementan los controladores PID. En la Ec. 3 se muestra la expresión matemática de un contralor PID discreto. ( ) ( ) (3) Una vez diseñado el sistema de control, se puede pasar a su equivalente en tiempo discreto, para esto se propone un tiempo de muestreo y mediante Matlab se utilizan funciones para convertir las funciones de transferencia de la planta y del controlador a tiempo discreto mediante alguno de los métodos conocidos para convertir expresiones en tiempo continuo a su equivalente en el dominio de z [7], luego se obtiene la función de transferencia completa del sistema. En la Fig. 5 se muestra el equivalente en tiempo discreto de un sistema de control de lazo cerrado. Figura 4. Sistema de control digital lazo cerrado. Fuente: Elaboración propia a partir de Continuous-Discrete Conversion Methods [7]. 4. IMPLEMENTACIÓN DEL SISTEMA En la figura 5 se muestra un diagrama de conexiones del sistema de control. Para medir el nivel de inclinación del eje que soporta a las hélices se utilizó un giroscopio, los datos enviados por el sensor se procesan en un microcontrolador de 8 bits y mediante programación se envían los datos del nivel de inclinación a través del puesto serie del microcontrolador. Figura 5. Diagrama de conexiones del sistema. Fuente: Elaboración propia a partir de Continuous-Discrete Conversion Methods [7]. Para generar las señales de control de ciclo de trabajo variable (PWM) para los circuitos de potencia que controlan el voltaje enviado a cada motor se utilizó la plataforma modular NI ELVIS II [8]. Para regular el voltaje de los motores se utilizaron transistores de potencia tipo Darlington, mediante la conmutación del transistor con una señal de ciclo de trabajo variable se controlan los tiempos d encendido y apagado del dispositivo, de esta manera se logra controlar el voltaje enviado hacia el motor. Por último la interfaz de control del prototipo se implementa en una computadora. Se decide utilizar LabVIEW para implementar la interfaz de control debido a que se requiere de un procesamiento en paralelo para que ambos motores se ajusten automáticamente respecto al valor del giroscopio. 4. PROGRAMA DE CONTROL Primero se detallan las entradas y salidas del sistema, el cual cuenta con dos salidas digitales y una entrada digital, la entrada digital se lee de manera serial (UART) los valores de los datos que se envían desde un microcontrolador externo el cual censa de manera continua en intervalos de 0 ms la inclinación del giroscopio el cual nos indica la posición en el plano X y Y del bicoptero, los datos son enviados de manera serial y recibidos por la tarjeta de adquisición de datos (DAC) integrada en el NI ELVIS, una vez recibido el dato es procesado ya que se recibe a manera de caracteres este debe de ser convertido a un valor numérico para poder realizar las operaciones correspondientes al control de cada motor, ya que se cuenta con motores similares, pero no iguales, se requiere modelar y controlar cada uno de manera independiente, debido a esto se requiere de un procesamiento en paralelo para que ambos motores se ajusten automáticamente respecto al valor del giroscopio, los motores al no diferenciar el cual es el motor izquierdo y derecho fue necesario aplicar mediante programación una etapa para reducir recíprocamente el valor de cada uno dependiendo de la posición en la que se quiera estar. La parte principal del programa de nuestro sistema de control fueron controladores de tipo PID para cada uno de los motores, la salida de ambos debió ser digital ya que se requiere de un ciclo de trabajo para poder regular la velocidad de cada uno de ellos. En la figura 6 se muestra el bloque del control PID utilizado, mediante este bloque se pueden generar controles para las acciones de control PID mencionadas. Para generar las salidas se utilizó la librería NI-DAQ y mediante la configuración del bloque CO Pulse Freq se puede generar una señal cuadrada que será utilizada como contador para cambiar el ancho de pulso de las señales de control. En la Fig. 7 se muestra el bloque utilizado para generar señales cuadradas tipo PWM. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9

39 Figura 6. Bloque de Control PID digital. Figura 8. Interfaz gráfica de control del bicoptero. Fuente: Elaboración propia a partir de NI ELVIS II, User s Manual, National Instruments [8]. Se puede observar en la Figura 6 que el bloque cuenta con una entrada de error, una salida, entradas para Kp, Ti, Td, y una salida, el valor que entrega esta salida se transforma a un ciclo de trabajo, también se puede ajustar el tiempo de muestreo. Figura 7. Configuración del bloque CO Pulse Freq para generar las señales de control. Fuente: Elaboración propia a partir de NI ELVIS II, User s Manual, National Instruments [8]. 5. RESULTADOS Mediante la interfaz gráfica de control se pueden implementar sistemas de control digitales, los cuales se pueden enfocar al ámbito educativo, de manera que una vez que el alumno, aprende la teoría de diseño de sistemas de control digitales, posteriormente pueda tener aplicaciones para implementar los diseños realizados. Fuente: Elaboración propia a partir de NI ELVIS II, User s Manual, National Instruments [8]. 4. INTERFAZ GRÁFICA DE CONTROL La interfaz cuenta con troles de ajuste de grados de inclinación, ajuste de ganancias de los controladores, controles ara la configuración de las terminales de salida de las señales PWM, indicadores que muestran las lecturas del puerto serial y posición en grados que entrega el giroscopio, controles de ajuste manual de las salidas PWM que controlan la conmutación de los dispositivos de potencia que administran el voltaje entregado a los motores y un control de selección del puerto serial que va a ser leído. En la Fig. 8 se muestra el diseño de la interfaz. En nuestro caso la aplicación fue el control de posición del prototipo antes mencionado mediante la interfaz se pueden ajustar los valor de los controladores, se puede modificar el sentido de giro del bicoptero y posicionarlo en un ángulo de inclinación. Referente a la parte del diseño del controlador se agregan los resultados obtenidos mediante el método de diseño mencionado: En la ecuación 4 se muestra la función de transferencia del sistema de control en lazo cerrado para cada motor en la Fig. 9 se muestra la respuesta transitoria ante una entrada escalon, donde se observan las características, como tiempo el tiempo de asentamiento. ( ) (4) Como ya se mencionó una vez que se tiene el diseño del controlador en s se pasa al dominio de z, en la Ec. 5 se muestra el control PID digital. (5) Por último se muestra la respuesta del sistema en lazo cerrado en su equivalente en tiempo discreto, obsérvese la Fig al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 30

40 velocidad, rad/seg Velocidad (rad/s) Figura 9. Respuesta transitoria del sistema en lazo cerrado en el dominio de s Fuente: Elaboración propia a partir de NI ELVIS II, User s Manual, National Instruments [8]. Figura 0. Respuesta transitoria del sistema en lazo cerrado en el dominio de z Respesta al escalon para Kd=0.,Ki=5 y Kd=0.0 Time (seconds) Respuesta tipo escalera: con controlador PID Tiempo (segundos) Fuente: Elaboración propia a partir de NI ELVIS II, User s Manual, National Instruments [8]. Figura. Fotografia del prototipo real, Bicoptero. 6. REFERENCIAS [] Hamid Saeed Khan, Muhammad Bilal Kadri, DC Motor Speed Control by Embedded PI Controller with Hardware-in-loop Simulation, IEEE, Computer, Control & Communication (IC4), 3rd International Conference on, Karschi, Pakistan, 5-6 Sept. 03. [] Xiang Xuejun, Xia Ping, Yang Sheng, Liu Ping, Real-time Digital Simulation of Control System with LabVIEW Simulation Interface Toolkit, IEEE, Control Conference, Chinese, July June [3] Benjamin J. Engle and John M. Watkins, A Software Platform for Implementing Digital Control Experiments on the Quanser DC Motor Control Trainer, IEEE, Control Applications IEEE conference, San Antonio, Texas, 3-5 Sept [4] Hans-Petter Halvorsen. (04, Julio 3). Introduction to LabVIEW, [En línea]. Disponible en: [5] Control Design Toolkit, User s Manual, National Instruments, 005, pp. -5. [6] Katsuhico Ogata et al, Sistemas de control en tiempo discreto, nd. ed., Pearson Educación, pp. 4-0, 996. [7] MathWorks, Documentation. (04). Continuous- Discrete Conversion Methods [En línea]. Disponible en: [8] NI ELVIS II, User s Manual, National Instruments, 0, pp.- a -7. Trujillo Toledo Diego Armando: Ingeniero en Electrónica del Instituto Tecnológico de Mazatlán, con estudios de Maestría en Ciencias con Especialidad en Sistemas Digitales por el Centro de Investigación y Desarrollo de Tecnología Digital del IPN. Es Profesor de tiempo completo en la FCQI, UABC, campus Tijuana. Miranda Pascual María Elena: es Profesora de Tiempo Completo en la Universidad Autónoma de Baja California, de la Facultad de Ciencias Química e Ingeniería, Campus Tijuana, B.C., México Reyes Martínez Roberto Alejandro: es Profesor de Tiempo Completo en la Universidad Autónoma de Baja California, de la Facultad de Ciencias Química e Ingeniería, Campus Tijuana, B.C., México. Mena Quevedo Eugenio: Estudiante de Ingeniería Electrónica FCQI, UABC. Avila de la Toba Jose: Estudiante de Ingeniería Electrónica FCQI, UA Fuente: Elaboración propia. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

41 PLATAFORMA DIGITAL BASADA EN UN FPGA PARA LA MEDICIÓN DE LAS CURVAS DE DISTORSIÓN AM-AM Y AM-PM EN AMPLIFICADORES DE POTENCIA DE RF Resumen : Este trabajo presenta una propuesta útil para realizar mediciones de las curvas de distorsión AM-AM y AM-PM en amplificadores de potencia de RF, con bajo costo de implementación usando un dispositivo FPGA a través de la herramienta DSP Builder usando una tarjeta de desarrollo Stratix III de Altera. El trabajo presenta el estado del arte actual sobre mediciones de las curvas de distorsión AM-AM y AM-PM. La principal contribución es el control digital completo del comportamiento del amplificador basado en la teoría de conversión de fase a amplitud, el sistema es simulado totalmente en Matlab-Simulink. El sistema permite recalcular mediciones de AM-AM y AM-PM guardadas como tablas de búsqueda LUT en una tarjeta de desarrollo pero también puede usarse para medir un amplificador real. Palabras claves amplificador de potencia, curvas de distorsión, FPGA, RF. KATHERINE MONTOYA VILLEGAS Centro de Investigación y Desarrollo de Tecnología Digital kmontoya@citedi.mx JOSÉ RICARDO CÁRDENAS VALDEZ Centro de Investigación y Desarrollo de Tecnología Digital jcardenas@citedi.mx J. APOLINAR REYNOSO HERNÁNDEZ Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE) apolinar@cicese.mx JOSÉ RAÚL LOO-YAU Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (CINVESTAV) y Centro de Investigación y Desarrollo de Tecnología Digital rloo@gdl.cinvestav.mx. INTRODUCCIÓN Los sistemas modernos de comunicación demandan transmisiones a mayor tasa de datos, para técnicas de modulación eficientes. El amplificador de potencia (PA acrónimo del inglés Power Amplifier) es clave en las transmisiones impulsando el compromiso entre la linealidad y la eficiencia de energía de RF. Los efectos cruciales de la distorsión no lineal a altas potencias en un PA son las distorsiones de amplitud y fase, o curva de distorsión amplitud a amplitud (AM-AM) y curva de distorsión amplitud a fase (AM-PM). Siendo entonces fundamental para el funcionamiento eficiente de los sistemas de comunicaciones inalámbricas la calibración y medición de las curvas de distorsión AM-AM y AM-PM. Existen numerosas técnicas en la literatura sobre modelado de tipo comportamiento de amplificadores de potencia y sus efectos de las curvas de distorsión AM- AM y AM-PM. Los cuales van desde modelos basados en polinomios sencillos sin memoria a complejos con memoria como las Series de Volterra, y truncaciones de este como el modelo polinomial con memoria (MPM acrónimo del inglés Memory Polynomial Model), Wiener y Hammerstein. En Ref. [] se muestra una investigación JOSÉ CRUZ NÚÑEZ PÉREZ Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (CINVESTAV) y Centro de Investigación y Desarrollo de Tecnología Digital nunez@citedi.mx reportada que desarrolla una técnica de medición AM- AM y AM-PM de bajo costo empleando únicamente ondas sinusoidales como señales de prueba, reduciendo el costo comparado con la investigación para obtener las curvas de distorsión [-3]. Uno de los objetivos futuros de este proyecto es el diseño de plataformas de medición de bajo costo para la extracción de las curvas de distorsión AM-AM y AM- PM.. Para la cual se propone el uso de la emulación del analizador de redes vectorial (VNA acrónimo del inglés Vectorial Network Analyzer) por medio de una tarjeta de desarrollo de Arreglo Lógico de Compuertas Programables (FPGA acrónimo del inglés Field Programmable Gate Array) y una computadora. La ventaja de usar este sistema de simulación y emulación es que los algoritmos pueden ser usados para etapas de linealización adicionales mejorando el rendimiento del PA y minimizando su consumo de potencia, teniendo así amplificadores de potencia con alta linealidad y alta eficiencia de energía. Este artículo es organizado de la siguiente manera: En la sección se discute las curvas de distorsión AM-AM y AM-PM que representan el comportamiento del PA, 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

42 también se presenta la teoría de transformación de amplitud a fase así como del modelado de tipo comportamiento de amplificadores de potencia. La sección 3 los resultados obtenidos. Y finalmente, en la sección 4 las conclusiones.. MEDICIÓN DE CURVAS DE DISTORSIÓN AM- AM Y AM-PM La curva de distorsión AM-AM para un sistema no lineal es la relación entre la amplitud de salida y entrada del sistema. La curva AM-PM representa la relación entre los cambios de fase de la salida comparado con la pase de la entrada. Normalmente este sistema se representa como: ( ) ( ( )) ( ( ) ( ( ))) () Donde g(r(n)) es la amplitud no lineal o distorsión AM- AM. f(r(n)) es la fase no lineal o distorsión AM-PM. La relación AM-AM es definida como el cambio en ganancia por db incrementado de la potencia de entrada y caracterizado por db/db. La distorsión AM-PM es similar y los cambios son expresados por db contra grados. Tres diferentes técnicas de medición de las curvas de distorsión AM-AM y AM-PM se mencionan en la literatura. Una es la técnica tradicional basada en el VNA [4], la otra técnica es con un simple y confiable banco de pruebas [5-6], y la otra es una técnica de bajo costo basada en el uso de una computadora como DSP []. En Ref. [4] se describe las mediciones lineales y no lineales de componentes de alta potencia y como usar un analizador de redes. Esto cubre las limitaciones de potencia de un analizador de redes, y configuraciones especiales de un analizador de redes para mediciones en alta potencia. Esto es para las mediciones de reflexión y transmisión, en otras palabras los parámetros de dispersión o parámetros S (S, S, S y S ). Los pasos básicos para esta medición son:. Calibración del VNA para la configuración de las mediciones.. Polarización del PA. 3. Medición de los parámetros S en magnitud y fase; donde en magnitud el parámetro S es la ganancia versus la potencia de entrada, y en fase es el parámetro S es el cambio de fase versus la potencia de entrada.. Teoría de transformación de amplitud a fase Si dos ondas sinusoidales de frecuencia ω, amplitud A y es considerada como la diferencia en fase entre las dos formas de onda, asumiendo que ambas son ondas cosenoidales, puede ser obtenida. ( ) ( ) ( ) ( ) () La ecuación () muestra una relación directa entre la señal original y el cambio de fase obtenido por el comportamiento del PA. A puede ser definida como onda sinusoidal de la siguiente manera: ( ) ( ) ( ) ( ) (3) Y V diff puede ser reescrito por la siguiente ecuación: ( ) (4) Las señales que son comparadas deben tener la misma amplitud para garantizar que V diff está completamente asociado al cambio de fase (distorsión AM-PM).. / (5) La Figura muestra el diagrama de bloques de la configuración de la medición AM-AM y AM-PM con un comportamiento del PA digitalizado [].. Modelado de Amplificadores de Potencia El MPM es un subconjunto de la serie de Volterra [7]. El MPM consiste de varias funciones de retardo y estática no lineal; y representa una truncación de la serie de Volterra general pero considerando únicamente los términos de la diagonal en los núcleos Volterra. Por lo tanto, el número de parámetros es significativamente reducido comparado a la serie original. El MPM considera los efectos de memoria y no linealidades, dados por la Ec. (6). Figura. Diagrama a bloques de la configuración de las mediciones AM-AM y AM-PM usando conversión de amplitud a fase. Pin=Acos(t) Signal Generator Wilkinson Power Divider UP DOWN Pout=AG(A)cos(t+ (A)) PA DUT Band Pass Filter Equalize Amplitude G = Vout / Vin Volts to dbm Converter S Fixed Attenuator Local Oscillator Matlab/Simulink _ + S + Phase to Amplitude Conversion Vdiff = S - S Vdiff = Acos(t+ (A)) - Acos(t) = sin - Vdiff / A AG (A)cos(t+ (A)) Mixer Mixer AM/AM AM/PM Fuente: Realización propia A/D Converter AG (A)cos(B t+ (A)) A/D Converter ( ) ( ) ( ) (6) 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 33

43 Donde son los coeficientes complejos del polinomio con memoria que son estimados por un método simple de mínimos cuadrados, k =, 3,, K es el orden del polinomio y es un entero, V in (s) y V out (s) son las señales discretas de entrada y salida de envolvente compleja de la s-enésima muestra y q = 0,,, Q es el intervalo de memoria y es igual al intervalo de muestreo. Las cantidades Q y K son el orden máximo de memoria y del polinomio respectivamente. Se debe tener en cuenta que la Ec. (6) solo contiene los términos de orden impar, porque las señales obtenidas de términos par están lejos de la frecuencia portadora. La Figura muestra un diagrama a bloques del MPM dado por la Ec. (6) [7-0]. Figura. MPM usando el modelo del comportamiento del PA. Vin(s) Como etapa entre la simulación y emulación de hardware es necesario el desarrollo de una estructura de DSP Builder para enlazar, sintetizar e implementar en hadware los archivos del modelo a VHDL (acrónimo del inglés Verilog Hardware Description Language). La Figura 5 representa el diseño de una LUT (acrónimo del inglés Look-Up Table) para enviar las variables almacenadas en el espacio de trabajo de Matlab, también los dos convertidores digital a analógico (DACs) en HSMC con una resolución máxima de 4 bits. En el segundo canal el atenuador con un factor ajustable que es calculado en base a la ganancia del PA. Figura 4. Medición de los parámetros S en (a) magnitud y (b) fase. F0 Z - Z - Vin(s-) Vin(s-) F F + Vout(s) Z - Vin(s-Q) FQ Fuente: Realización propia 3. RESULTADOS El procedimiento de medición de las curvas de distorsión AM-AM y AM-PM inició con la calibración del PNA-X Network Analyzer N545A de Agilent Technologies usando SOLT (acrónimo del inglés Short Open Load Thru) con los estándares 3.5 mm mostrados en la Figura 3 encerrados en un círculo, la calibración es a una frecuencia de GHz con un barrido de potencia de -30 a - 0 dbm. (a) Figura 3. Configuracion típica utilizando el PNA-X Agilent Technologies N545A. (b) Fuente: Realización propia Fuente: Realización propia Las mediciones fueron realizadas para el PA MAR-+ de.5 dbm con un voltaje de polarización de V, en la Figura 4a se tiene la medición de los sus parámetros S medidos en magnitud, y en la Figura 4b en fase. La etapa inicial es la señal de entrada generada en base a los requerimientos del PA, los bloques de Simulink permiten introducir una onda sinusoidal y señal AM obedeciendo el rango de voltaje de entrada para cualquier medición del PA, la señal de entrada es enviada al modelo del PA basado en el MPM, diseñado con un orden de no linealidad K=5 y profundidad de memoria Q=0 para el caso del PA MAR-+ de.5 dbm. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 34

44 Figura 5. Estructura diseñada en DSP Builder aplicada para la emulación de hardware. Figura 6. Emulación en FPGA del desfase del PA MAR-+ de.5 dbm 0 ns Clock Signal Tap II Logic Analyzer Signal Compiler Testbench On TestBench Stratix III 3SL50 FPGA Developmen Board q(8:0) (8:0) q(3:0) Signal Tap II Z - d(3:0) q(3:0) XOR Increment LUT Offset DAC Delay q(8:0) (8:0) q(3:0) DA_HSMC_A yout d(3:0) q(3:0) XOR Increment LUT Offset Signal To Workspace Fuente: Realización propia También se simuló y emuló de igual forma el PA 7W GHz, como se muestra en la Figura 7 con un desfase en el punto máximo de aproximadamente Figura 7. Emulación en FPGA del desfase del PA 7W GHz. Signal Tap II Z - PA DAC Delay DA_HSMC_A DUT yout Attenuator Fuente: Realización propia Signal To Workspace Como etapa final es desarrollado un sistema basado en la teoria basica de la transformacion de fase a amplitud capaz de calcular la distorsion de fase que representa la curva AM-PM del DUT, el sistema completo permite control total de las variables haciendo un sistema con precisión aceptable que toma ventaja de los beneficios proporcionados por la tarjeta de desarrollo. El PA-RF usado es el MAR-+ de.5 dbm donde sus datos son proporcionados en la Tabla, igual que el PA 7W GHz. Con la simulación y emulación del PA MAR-+ de.5 dbm para la obtención de su curva de distorsión AM-PM, la señal de entrada y salida se igualaron en amplitud para la aplicación de la Ec. (5) por medio de código en Matlab. Como se observa en la Figura 6 el desfase máximo entre estas dos señales es de aproximadamente Tabla. Especificaciones de los PA-RF Power Amplifier 7W GHz.5 dbm MAR- 0.5 GHz Gain GHz GHz PdB 38.5 dbm GHz Polarization VDS = 3V, VGS = -V 7-5 V Bandwidth 0-70 MHz DC - GHz Fuente: Realización propia Fuente: Realización propia Con lo anterior se obtuvieron las curvas de distorsion AM-AM y AM-PM, para ambos PAs, en la Figura 8 se muestran las curvas del PA.5 dbm 0.5 GHz y en la Figura 9 las del PA 7W GHz. En ambos casos se tienen las curvas medidas tradicionalmente con el VNA y las medidas con la tecnica del sistema propuesto. Figura 8. Curvas de distorsión del PA.5 dbm 0.5 GHz (a) AM-AM y (b) AM-PM. (a) 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 35

45 5. REFERENCIAS (b) Fuente: Realización propia Figura 9. Curvas de distorsión del PA 7W GHz (a) AM-AM y (b) AM-PM. (a) [] S. Sen et al., Phase Distortion to Amplitude Conversion-Based Low-Cost Measurement of AM-AM and AM-PM Effects in RF Power Amplifiers, IEEE Transactions on Very Large Scale Integration (VLSI) System, vol. 0, no. 9, pp , 0. [] E. Acar and S. Ozev, Low cost MIMO testing for RF integrated circuits, IEEE Transactions on Very Large Scale Integration (VLSI) Systems, vol. 8, no. 9, pp , Sep. 00. [3] J.C. Núñez et al., Flexible testbed for the behavioural modelling of power amplifiers, The International journal for computation and mathematics in electrical and electronic engineering (COMPEL). vol. 33, no. /, pp , 04. [4] Agilent Technologies, Using a network analyzer to characterize high-power component," Application note 87-6, 998. [Online]. Available: [5] A. Reynoso and E. Maldonado, Broadband Determination of Two-Port transmission (S, S) parameters of PHEMT s Embedded in Transmission Lines, 55th Automatic RF Technique Group Conference Digest, pp. 49-5, 000. [6] A. Reynoso and J.A. Rangel, Full RF characterization for extraction the small signal equivalent circuit in microwave FETs, IEEE Transactions on Microwave Theory and Techniques, vol. 44, No., pp , 996. [7] H. Ku and J. S. Kenney, Behavioural modelling of nonlinear RF power amplifiers considering memory effects, IEEE Transactions on Microwave Theory and Techniques, vol. 5, no., pp , December 003. [8] D. Schreurs, M. O'Droma, A. A. Goacher and M. Gadringer, RF Power Amplifier Behavioral Modeling, New York, United States of America: Cambridge University Press, 009. [9] R. Raich, H. Qian and G. T. Zhou, "Orthogonal Polynomials for Power Amplifier Modeling and Predistorter Design," IEEE Transactions on Vehicular Technology, vol. 53, no. 5, pp , September 004. [0] L. Ding, G. T. Zhou, D. R. Morgan, Z. Ma, J. S. Kenney, J. Kim and C. R. Giardina, "A Robust Digital Baseband Predistorter Constructed Using Memory Polynomials," IEEE Transactions on Communications, vol. 5, no., pp , January CONCLUSIONES (b) Fuente: Realización propia En este artículo es presentado un sistema propuesto para la medición de las curvas de distorsión AM-AM y AM- PM a través de simulación, usando las mediciones previas de un modelo digitalizado del comportamiento del PA MAR-+ de.5 dbm y del PA 7W GHz, este trabajo entra en la categoría de medicion de bajo costo del comportamiento de un PA-RF. El articulo presenta la teoría de soporte, la simulación y los resultados experimentales para demostrar el concepto teórico de conversión de amplitud a fase manteniendo la idea de técnica de bajo costo pero mejorado con la flexibilidad de interpretar el comportamiento digitalizado de un PA o considerando un PA como dispositivo bajo prueba, a través de una tarjeta de desarrollo FPGA. Katherine Montoya Villegas: Ingeniera Electrónica por el Instituto Tecnológico de Tijuana, México, en el 03. Actualmente trabaja en su tesis para alcanzar el grado de Maestría en Ciencias en Sistemas Digitales por el Centro de Investigación y Desarrollo de Tecnología Digital del Instituto Politécnico Nacional. Su interés de investigación incluye el modelado principalmente de tipo comportamiento de amplificadores de potencia de RF, diseño en FPGA y medición de parámetros S. José Ricardo Cárdenas-Valdez: Nació en Tijuana, Baja California, México, el ro de Octubre de 98. Recibió su grado de Ingeniero en el Instituto Tecnológico de Tijuana (ITT) en Baja California, México, en 006, y su grado de Maestría en Ciencias en Sistemas Digitales en el Centro de Investigación y Desarrollo de Tecnología Digital (CITEDI- IPN) en Tijuana, México, en 008. Actualmente trabaja en su tesis doctoral para alcanzar el grado de Doctor en Ciencias en Sistemas Digitales en CITEDI-IPN. Su interés de investigación incluye el diseño y modelado de dispositivos analógicos y digitales, principalmente amplificadores de potencia, dispositivos de alta frecuencia y diseño en FPGAs. J. Apolinar Reynoso Hernández: Recibió el grado de Ingeniero en Electrónica y Telecomunicaciones por el ESIME-IPN, México, el grado de Maestro en Ciencias en física del estado sólido por el CINVESTAV- IPN, México y el grado de Doctor en Electrónica por Université Paul Sabatier-LAAS du CNRS, Toulouse, Francia, en 980, 985, y 989, respectivamente. Su tesis doctoral fue en MESFET y HEMTs de ruido a baja frecuencia. Desde 990, fue investigador en el Departamento de Electrónica y Telecomunicaciones de CICESE, Ensenada, Baja California, México. Sus áreas de investigación incluyen mediciones en obleas a altas frecuencias, modelado de dispositivos de altas frecuencias, linear, modelado no lineal y ruido, y conmutación de 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 36

46 amplificadores de potencia. Él fue beneficiario al premio del mejor poster en ARFTG s en 00 y 0. José Raúl Loo-Yau: (S 03 A 06 M 3) recibió el grado de B.S.E.E. por la Universidad Autónoma de Guadalajara en Guadalajara, Jalisco, México, en 998, y los grados de Maestría. y Doctorado en electrónica y telecomunicaciones por CICESE, Baja California, Ensenada, México, en 000 y 006, respectivamente. En 007, se unió al CINVESTAV de Guadalajara, Jalisco, México, como un Profesor Asociado y se convirtió en Profesor en 0. José Cruz Núñez Pérez: Recibió el grado del Maestro en Ciencias en Ingeniería Electrónica por el Centro Nacional de Investigación y Desarrollo Tecnológico (CENIDET), en Cuernavaca Morelos, México, en el 003, y el grado de Doctor por el Institut National des Sciences Apliquées de Lyon (INSA-Lyon), en Francia, en Diciembre 007. Desde Agosto 008 se desempeña como Profesor Investigador en el Centro de Investigación y Desarrollo de Tecnología Digital (CITEDI) del Instituto Politécnico Nacional (IPN), en Tijuana, México, en el departamento de Telecomunicaciones. Actualmente tiene la distinción de Nivel I en el Sistema Nacional de Investigadores (SNI). 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 37

47 UN SISTEMA DE MEDICIÓN DEL TEMBLOR PARKINSONIANO, UNA ALTERNATIVA NO INVASIVA BASADA EN INSTRUMENTACIÓN VIRTUAL A measuring system of Parkinsonian tremor, a noninvasive alternative based on virtual instrumentation Resumen En este trabajo se presenta un instrumento virtual no invasivo de medición de un desorden de movimiento denominado tremor parkinsoniano, el cual es un signo cardinal de una enfermedad denominada Mal de Parkinson, en incidencia, el segundo padecimiento neurológico a nivel mundial, solo después del Alzheimer. El desarrollo propuesto, en su parte física, costa de un sensor óptico de distancia, que detecta el movimiento de las extremidades superiores y una tarjeta arduino uno como medio de adquisición de datos hacia una computadora personal; la parte lógica se codifica en LabView, mientras que la base de datos encargada de almacenar información de pacientes y sus pruebas es elaborada en MySQL. Evaluando la repetitividad mediante la desviación estándar relativa de se obtiene el.5%; es decir el 97.5% de los valores se encuentran alrededor de la media de 50 pruebas. La linealidad (tipo de respuesta en la salida ante una entrada) tiene un valor de 95.8 %. El modelado del instrumento propuesto es realizado por medio de diagramas de flujo. Palabras clave Diagrama de Flujo de Datos, LabView, No invasivo, Tremor parkinsoniano. GARCÍA MEJÍA JUAN FERNANDO Ingeniero en Electrónica, Posgrado Profesor Investigador Centro Universitario UAEM Atlacomulco fgarciam@uaemex.mx FLORES FUENTES ALLAN ANTONIO Ingeniero en Electrónica, Dr. Profesor Investigador Centro Universitario UAEM Atlacomulco allan_fflores@yahoo.com.mx PÉREZ MARTÍNEZ JOSÉ ARTURO Ingeniero en Electrónica, Dr. Miembro del Cuerpo Académico Desarrollo de Software, Dispositivos y Sistemas Aplicados a la Innovación Tecnológica Centro Universitario UAEM Atlacomulco japm_8@yahoo.com.mx TORRES REYES CARLOS EDUARDO Ingeniero en Electrónica, Dr. Coordinador del posgrado en Ciencias de la Computación Centro Universitario UAEM Atlacomulco edtore75@hotmail.com GONZÁLEZ MATIAS SUSANA Estudiante de la licenciatura en informática administrativa Centro Universitario UAEM Atlacomulco susan_gm4@hotmail.com. INTRODUCCIÓN El Mal del Parkinson es una de las enfermedades neurodegenerativas con mayor incidencia después del Alzhaimer; estadísticamente comienza a manifestarse entre los 40 y 70 años. En el siglo XIX fue descrita por James Parkinson y denominada como Parálisis Agitante por Marshall Hall, ambos coinciden en la serie de signos tales como Rigidez Muscular, Acinesia/Bradicinesia, inestabilidad postural y tremor en reposo []. El tremor en reposo se presenta en un 75% de los casos de Mal de Parkinson, se produce por la contracción involuntaria de los músculos agonistas y antagonistas que genera un movimiento rítmico, oscilatorio cuya frecuencia se encuentra entre en el rango -4Hz.en función del avance de la enfermedad.[]. Es importante realizar la medición de tremor parkinsoniano dado que en los próximos años se espera un incremento importante en la incidencia de esta enfermedad. El tremor parkinsoniano al ser un signo cardinal del Mal de Parkinson ha sido objeto de estudio de varios desarrollos que se documentan en la literatura especializada. Uno de ellos la comparación por superposición de Espirales de Arquímedes trazadas en una tabla digitalizadora, el seguimiento y evaluación de lesiones en las aéreas del cerebro que controlan el movimiento a través de resonancias magnéticas. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 38

48 En una revisión a la literatura especializada se encontraron algunos desarrollos como para esto se han desarrollado diversas alternativas tales como, el seguimiento y evaluación de lesiones en las aéreas del cerebro que controlan el movimiento a través de resonancias magnéticas, empleando sensores mioeléctricos colocados en las extremidades a estudiar que se conectan a un equipo de electromiografía, conectando en un guante acelerómetros o su variante reemplazando estos por giroscopios que miden la velocidad angular, interpretando variaciones de resistencias presentes en sensores de flexión representativas del movimiento, grabando y analizando video de alta resolución, trazado de espirales de Arquimides en tabletas digitalizadoras Además del uso de foto resistencias para medir las oscilaciones del tremor parkinsoniano de manera no invasiva. Cabe destacar que también existen documentas dos aplicaciones informáticas (APP) las cuales miden el tremor parkinsoniano mediante los acelerómetros de teléfonos móviles con sistema operativo Android y IOS. La tabla muestra algunas consideraciones de los desarrollos antes citados. Tabla.Estado del Arte Técnica Ventaja Desventaja Resonancia No invasivo Costo elevado Magnética Sensores miolectricos Precisos Invasivos ya que en su mayoría de casos requiere de sensores de inserción Guante con acelerómetros/gir oscopios Sensores flexión de Permite la medición en tres ejes Económico dado el costo de los sensores de flexión No invasivo Difícil de colocar en algunos pacientes dado la rigidez muscular Difícil de colocar en algunos pacientes dado la rigidez muscular Costoso Grabación de video de alta resolución Tabletas No invasivo Costoso digitalizadoras Foto resistencias No invasivo Presenta algunas fallas en función de las condiciones de iluminación APP S No invasivo El teléfono móviles susceptible a caídas ocasionando daños Fuente: Elaboración propia a partir de [3], [4], [5], [6], [7], [8], [9], [0]. En base a la información expuesta se plantea la necesidad de desarrollar un instrumento no invasivo con un costo menor con relación a. La propuesta consiste en un dispositivo que como elemento de medición usa un sensor infrarrojo, como adquisición de datos usa una tarjeta de desarrollo Arduino UNO y un software que es codificado en LabView utilizando como gestor de base de datos MySQL.. DISEÑO En esta sección se describen el diseño de las etapas lógicas y físicas del instrumento virtual propuesto en este desarrollo. La abstracción de la parte lógica es realizada por medio del análisis estructurado, específicamente usando los diagramas de flujo de datos (DFD), los cuales proporcionan una indicación de cómo se transforman los datos a medida que avanza el sistema y representan las funciones y subfunciones lo cual permite diseñar entidades de software []. Para complementar a estos diagramas se utiliza el diccionario de datos, que proporciona información sobre el tipo de dato utilizado.. Diagrama de Flujo de Datos de Nivel 0 del Instrumento Propuesto Este diagrama se conoce como contextual o de flujo de nivel 0 ya que se trata de una primera aproximación conceptual al instrumento desarrollado, donde se puede ver que está formado por un sensor infrarrojo, la tarjeta de adquisición de datos y como se relacionan con el software propuesto. Figura Diagrama de Contexto Fuente: Diseño e Implementación basados en Análisis Estructurado []. En la tabla se presenta un diccionario de datos, el cual muestra características de los datos mostrados en la figura. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 39

49 Tabla.Diccionario de datos Dato Tipo Rango y unidades Tremor Variable física -6 Hz Parkinsoniano Señal de Voltaje directo -5 volts Voltaje Datos binarios Binario Datos paciente Resultado Resultado Interpretado Edad, Peso, Sexo, Datos personales Frecuencia, Grafica del tremor parkinsiniano Diagnostico Años, kilos nombre antecedentes médicos -6 Hz Estatus del progreso de la enfermedad Fuente: Elaboración propia a partir de Diseño e Implementación basados en Análisis Estructurado []... Sensor Como se observa en el estado del arte, el estatus invasivo de los instrumentos analizados depende de manera primordial de la elección del sensor, en este caso se optó por el dispositivo de la marca Sharp GPY0A4SK0F, el cual se muestra en la figura Figura. Sensor propuesto. f) Peso: 3,5 g (0, oz) En la figura 3 se muestra el gráfico representativo de la repuesta del sensor. Figura 3. Respuesta del sensor. Fuente: Elaboración propia a partir de Simulink Matlab. Como se observa en la figura 3 el sensor propuesto tiene un comportamiento no lineal que es abordado en secciones subsiguientes... Tarjeta de adquisición de datos Para este desarrollo se propuso como interfaz entre la señal eléctrica de voltaje del sensor Sharp GPY0A4SK0F y la computadora un Arduino Uno (figura 4), el cual se define como una tarjeta de desarrollo que se cataloga como hardware libre y es basada en el microcontrolador ATMEGA 38. Figura 4. Arduino UNO Fuente: Elaboración propia. Las características del sensor propuesto se muestran a continuación: a) Voltaje de funcionamiento: 4,5 V a 5,5 V b) Consumo de corriente promedio: ma (típico) c) Rango de medición de distancia: 4 cm a 30 cm (.5 "a ") d) Actualiza período: 6 ± 4 ms e) Tamaño del paquete: 9,5 3,0 3,5 mm (,6 "x 0,5" x 0,53 ") Fuente: Elaboración propia. La señal analógica del sensor Sharp GPY0A4SK0F se ingresa en uno de los pines analógicos de la tarjeta Arduino UNO, se realiza una lectura analógica y se escribe al puerto USB de una computadora personal. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 40

50 Cabe destacar que el comportamiento no lineal del sensor se trata también en el microcontrolador por medio de una expresión matemática linealizante que se muestra en la ecuación Dónde: es la ditancia a ser medida es el voltaje de salida del sensor. Diagrama de Flujo de Datos de Nivel del Instrumento Propuesto Este diagrama (figura 5) muestra una segunda aproximación conceptual del instrumento propuesto (Diagrama de Flujo de Datos de nivel ó DFD), en este se pueden observar aspectos del software (parte lógica) del instrumento virtual propuesto. Se observa los módulos que forman a este y su relación con los componentes físicos y los agentes externos. () El programa de adquisición de datos se elabora a partir de instrucciones de NI VISA una utilería de National Instruments que permite comunicar una computadora personal por medio de protocolos de comunicación serial. La detección de datos se realizó por medio de la detección de los componentes de frecuencia del espectro de Fourier de los daos de tremor discreto. Posteriormente una nueva etapa del programa se encarga de realizar el escalamiento de la señal. Cabe destacar que la información que se presenta es la frecuencia del tremor y una gráfica de los datos etiquetados como tremor discreto. La figura 6 muestra el programa de adquisición de datos. Figura 6. Programa de adquisición de datos. Figura 5. Diagrama de flujo de datos de nivel. Fuente: Elaboración propia a partir de NI-VISA. 3. RESULTADOS Fuente: Diseño e Implementación basados en Análisis Estructurado []. La señal capturada representativa del tremor parkinsoniano se muestran en la figura 7, donde el eje x representa el tiempo, mientras que el eje y es la amplitud del movimiento en centímetros. Figura 7. Señal del tremor parkinsoniano. Para este diagrama se realiza un segundo diccionario de datos mostrado en la tabla 3 que complementa al mostrado en la tabla. Tabla 3. Diccionario de datos del DFD. Dato Tipo Rango Datos binarios Binario Tremor discreto Variable doublé Frecuencia normalizada (arreglo) Variable double 0- Fuente: Elaboración propia a partir de Diseño e Implementación basados en Análisis Estructurado []. Fuente: Elaboración propia. El instrumento propuesto fue probado con un paciente real, en el consultorio médico de la asociación de 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

51 enfermos de Mal de Parkinson de Atlacomulco, Estado de México; de manera adicional se realizó un estudio de Repetitividad, Linealidad e Histéresis sobre el circuito de detección mediante un autómata que genera un movimiento oscilatorio y rítmico en una frecuencia de intervalo desde los a las 6Hz. Estas características permiten determinar si el instrumento es confiable. La figura 8 muestra el lazo de histéresis, donde se observa la respuesta en sentidos ascendente (en rojo) y descendente (azul). Ahora bien evaluando la repetitividad mediante la desviación estándar relativa de se obtiene el.5%; esto quiere decir que el 97.5% de los valores se encuentran alrededor de la media de 50 pruebas. La linealidad es decir tipo de respuesta en la salida ante una entrada tiene un valor de 95.8 %. Figura 8. Respuesta de sensor. neuromotores XXVI Jornadas de automática, Septiembre del 005. Universidad de Alicante. [5] Döhlinger, S.; Hauser, T.K.; Borkert, J.; Luft, A.R.; Schulz, J.B. Magnetic resonance imaging in spinocerebellar ataxias. Cerebellum 008, 7, 04-4 [6] Grimaldi, G.; Manto, M. Tremor: From Pathogenesis to Treatment; Morgan & Claypool: San Rafael, CA, USA, 008. OMG Systems Modeling Language (OMG SysMLTM), V.0 OMG 008pp [7] Pérez M, Demodulador Digital para Acelerometría Dinámica Memorias del er taller de compute reconfigurable 003 Coordinación de sistemas computacionales Instituto Nacional de Astrofísica, Optica y electrónica. Apixaco Tlaxcala. [8] Rocon, E.; Manto, M.; Pons, J.; Camut, S.; Belda, J.M. Mechanical suppression of essential tremor. Cerebellum 007, 6, [9] Steven S.A, Diagnóstico Clínico y Tratamiento, México 99 p [0] Wong, W.Y.; Wong, M.S.; Lo, K.H. Clinical applications of sensors for human posture and movement analysis: a review. Prosthet. Orthot. Int. 007, 3, [] García Mejía Juan Fernando Un Espirómetro Virtual: Diseño e Implementación basados en Análisis Estructurado, Transformada Wavelet Discreta y Matlab 6to Congreso Internacional de Optimización y Software Cuernavaca Morelos Fuente: Elaboración propia a partir de Simulink Matlab. 4. CONCLUSIONES El uso de un sensor Sharp GPY0A4SK0F en conjunto con una tarjeta de desarrollo Arduino UNO es una alternativa económica a los principios de medición expuestos en el estado del arte de este trabajo, además el estudio de repetibilidad muestra buenos resultados. La linealidad es alta, dado la ecuación linealizante usada. 5. REFERENCIAS [] Micheli, F. (003). Tremor Parkinsoniano. En F. Micheli, Tratado de Neurologia Clínica (pág. 54). Buenos Aires Argentina: Medica Panamericana. [] Jeffrey, H;. (009). Enfermedades de Parkinson y colocación del estimulador cerebral profundo. En H. Jeffrey, Clínicas Anestesiológicas de Norteamérica (págs ). Madrid: MASSON. [3] Breit, S.; Spieker, S.; Schulz, J.B., Gasser, T. Longterm EMG recordings differentiate between parkinsonian and essential tremor. J. Neurol. 008, 55, 03-. [4] Brunetti;F Un conjunto de herramientas portátiles para la valoración y el estudio de desórdenes García Mejía Juan Fernando: Ingeniero en Electrónica, con un posgrado en Ciencias en Electrónica, desde el año 004 se desempeña como profesor de tiempo completo de la Universidad Autónoma del Estado de México en las áreas de licenciatura en computación y en el posgrado de computación, sus dos áreas de interés son la instrumentación virtual y el softcomputing. Flores Fuentes Allan Antonio: Recibió el grado de Ingeniero en Electrónica por parte del Instituto Tecnológico de Toluca, Metepec, México en 004. Obtuvo el grado de Doctor en Ciencias en Ingeniería Electrónica por el Instituto Tecnológico de Toluca en 009, México. Miembro SNI nivel candidato por parte del CONACyT de Desde 0 se desarrolla en la Universidad Autónoma del Estado de México como profesor-investigador en el área de tópicos selectos de electrónica de potencia aplicada para el desarrollo de conversión de energía, implementando técnicas de control mediante uso de Soft- Computing. Pérez Martinez José Arturo: recibió el título de Ingeniero en Electrónica y en 00 recibió el Grado de Doctor en Ciencias en ingeniería Electrónica, ambos del Instituto Tecnológico de Toluca, Toluca, México.. Actualmente su investigación consiste en el diseño de convertidores estáticos de Radio Frecuencia aplicados en la generación de plasmas a presión atmosférica en reactores con diferentes configuraciones. Actualmente se encuentra laborando en la Universidad Autónoma del Estado de México, donde es miembro del Cuerpo Académico Desarrollo de Software, Dispositivos y Sistemas Aplicados a la Innovación Tecnológica, en el Centro Universitario UAEM Atlacomulco, Atlacomulco, México. Torres Reyes Carlos Eduardo: Ingeniero Electrónico recibió el Grado de Doctor en Ciencias en ingeniería Electrónica, ambos del Instituto Tecnológico de Toluca, Toluca, México, es coordinador del posgrado en Ciencias de la Computación de la Universidad Autónoma del Estado de México, su línea de investigación se centra en la generación de plasma. González Matias Susana: Estudiante de la licenciatura en informática administrativa en el Centro Universitario UAEM Atlacomulco ha participado en varios intercambios de movilidad nacional. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

52 RADAR MARINO COMO INSTRUMENTO DE MEDICIÓN PARA EL ESPECTRO DIRECCIONAL DEL OLEAJE MARINO Resumen Se presenta la implantación de un instrumento para determinar el espectro de energía del oleaje direccional. A partir de la información del monitoreo de la superficie del mar con un radar marino. El espectro del oleaje se determina a partir de un conjunto de muestra de imágenes de la superficie del mar. Además se puede estimar la altura del oleaje marino. Para estimar el espectro direccional del oleaje, se implementó un algoritmo de análisis numérico sobre el conjunto de imágenes del radar digitalizadas. La medición de la altura de las olas se fundamenta en el principio lectura de la exploración de señal de microondas Banda X del radar marino y es similar medición del oleaje significativo (Hs) que se hace con Radares de Apertura Sintética SAR. El sistema integrado se instaló para series de medición del oleaje tanto en Playas de Rosarito como en el Puerto de Ensenada BC. Palabras claves Espectro Direccional del Oleaje, Radares marinos. ROBERTO HERRERA CHARLES Centro de Investigación y Desarrollo de Tecnología Digital IPN-CITEDI robccharles@citedi.mx TEODORO ÁLVAREZ SÁNCHEZ Centro de Investigación y Desarrollo de Tecnología Digital IPN-CITEDI talvarez@citedi.mx MIGUEL A. VERGARA SÁNCHEZ Escuela Superior de Ingeniería y Arquitectura IPN-ESIA Unidad Profesional Zacatenco mavergs@gmail.com. INTRODUCCIÓN La medición de oleaje de mar y las corrientes con un radar marino está basado en análisis espacial y temporal de las imágenes de radar marino. Se han desarrollado algunos procedimientos para estimar algunas propiedades del oleaje por ejemplo su dirección de propagación. En las primeras etapas de esta investigación se usó un radar marino de navegación convencional [3]. El método consiste en obtener imágenes de la superficie del mar, tomando fotografías directamente de la pantalla del radar. Este método es limitado porque no obtiene suficiente información y al transferir la información de la pantalla a la película fotográfica y posteriormente a la computadora, se produce un deterioro en la calidad de la información. Mediante otro método [4], en el cual la imagen es tomada a la salida del amplificador de video del radar, es decir la señal de vídeo RGB (del inglés Red, Greeen and Blue) que es aplicada al monitor de vídeo, aunque los resultados mejoran con este método, no son lo suficientemente buenos. En otros trabajos [5] se ha construido un radar móvil para el estudio a corta distancia (de 8 a 4 Km) de fenómenos que se desplazan con rapidez: tornados, huracanes o tormentas tropicales. El sistema captura datos, basándose en una tarjeta digital de alta velocidad instalada en una computadora personal (PC). El control y procesamiento de la tarjeta, es un circuito Procesador Digital de Señales (DSP de sus siglas en inglés) que procesa los ecos del radar para su estudio y visualización. Más recientemente se ha desarrollado un esquema para determinar el espectro direccional de las olas a partir de las imágenes de un radar marino []. En éste, se adapta un sistema de captura de imágenes a un radar estándar Recal-Decca BT36, a través de la salida del amplificador de frecuencia intermedia (FI). La antena del radar transmite pulsos de duración de 0.05 μseg. o 0.5 μseg, con una potencia pico de 5 Kw y una frecuencia de 9.8 GHz a través de una antena de.7 metros. La rotación de la antena es de 5 rpm y los pulsos tienen una repetición de 00 Hz. La unidad de captura y almacenamiento se desarrolló en una computadora con procesador El sistema obtiene imágenes en un rango aproximado de 5.3 Km con una resolución de 0.7 m. Cada imagen se despliega en una pantalla cartesiana de 5 x 5 puntos. El sistema tiene la capacidad de almacenar en una cinta magnética SCSI una imagen cada 7 segundos. Una serie de 6 imágenes, tomadas de la misma zona, son analizadas matemáticamente para determinar el espectro de dirección de las olas en la superficie del mar. Para continuar con la investigación sobre el oleaje y mejorar la información obtenida con los radares convencionales en el estudio de la superficie del mar, el CICESE adquirió un radar marino FURUNO FR- banda X [], con este radar desarrollamos un sistema de digitalización y almacenamiento de imágenes, para el estudio de fenómenos oceanográficos en la región costera, se describen los dispositivos y la programación que lo conforman, además se muestra cómo el sistema fue acoplado al radar.. PRINCIPIOS Las imágenes de radar son ocasionadas por la iteración de ondas electromagnéticas con los risos de la superficie del mar causado por el viento local. Estas interacciones 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 43

53 producen una dispersión de retorno (backscatter, Fig..) del campo electromagnético y, finalmente una imagen patrón en la pantalla del radar. Esta imagen comúnmente llamada sea cluter. Figura. Reflexión de las Ondas Electromagnéticas Digitalizar la señal a la salida del amplificador F.I. []. 3 Obtener la imagen a la salida del amplificador de vídeo del radar que es la señal RBG que es aplicada al monitor de vídeo [5]. 4 Estimación de Altura del oleaje significativo con un radar marino de banda-x (Nieto, Hessner, 999). 3. METODOLOGIA La operación de los radares en general consiste en transmitir una serie de pulsos muy breves, radiados a través de una antena. Las transmisiones son frecuencias de microondas que van de a 35 Ghz, con un ancho de banda reducido. Fuente: Elaboración propia La variabilidad de la superficie del mar es analizada, a través de las imágenes de radar, para extraer un espectro de oleaje direccional, así como también el parámetro del estado del mar como son el periodo pico, dirección media, etc. Este reporte presenta un nuevo esquema de la determinación del estado mar y espectro direccional del oleaje de una serie de tiempo de imágenes de radar marino (sea clutter). El método utiliza una técnica similar a la empleada en los radares de apertura sintética (SAR de sus siglas en inglés). El principio básico es que la altura del oleaje significativo es linealmente independiente de la raíz cuadrada de relación señal a ruido, donde la señal asumimos como la estimación del análisis radar de la energía espectral del oleaje y el ruido es calculado como la energía debido a la rugosidad de la superficie del mar. El agrupamiento del oleaje es un fenómeno que, aunque ampliamente conocido, no está aun apropiadamente explicado ([.a]. El radar FURUNO-, vea Tabla, está constituido de manera general por la unidad de exploración y la unidad de desplegado. La unidad de exploración está integrada por la antena, el magnetrón y los circuitos electrónicos de radio frecuencia (RF). La unidad de desplegado contiene la pantalla de rayos catódicos, los amplificadores de vídeo, los módulos de procesamiento de señal, menús de control y los módulos de control para la pantalla. El principio de operación de la unidad de exploración es similar en todos los radares convencionales. Se tiene un circuito donde se generan los pulsos que modulan la señal de microondas. La antena del radar transmite estos pulsos sinusoidales, en una banda base a una frecuencia de 9.4 Ghz. Se tiene un circuito que genera los pulsos para el disparo de la modulación de los Transistores de Efecto de Campo (FET s) del circuito modulador. La señal de salida del circuito de pulso se fija a + V con una resistencia ( pull-up ). Esta salida es enviada a la tarjeta moduladora. Otra función de la unidad de exploración, es la de generar las señales para el control de selección del ancho de banda del filtro de la señal de Frecuencia Intermedia (FI). En al Fig.. se muestra un diagrama a bloques del amplificador de FI. Figura. Diagrama a bloques del radar e interface a computadora Personal PC. Este fenómeno se estudia históricamente a partir de series temporales de elevaciones de la superficie libre del mar medidas mediante boyas oceanográficas fondeadas en localizaciones fijas del océano. En las últimas décadas ha surgido el interés por estimar el espectro direccional de las olas a partir de las imágenes obtenidas con radares marinos y ha establecido una línea de investigación usando ese tipo de sistemas. Métodos usados para capturar la imagen del radar: Tomar fotografías directamente de la pantalla del radar [3]. Fuente: Elaboracion propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 44

54 La función del circuito modulador es producir un pulso de alta tensión que maneje al magnetrón. El alto voltaje es cargado en varios capacitores a través de una resistencia mientras el magnetrón se encuentra inactivo. El alto voltaje se descarga a través del pulso con un transformador cuando los cuatro FET s de modulación conducen. La fuerza contra electromotriz del transformador, hace que el magnetrón oscile. Los pulsos de disparo son producidos en la tarjeta de disparo y aplicados a los FET s vía un amplificador de corriente. Después que el pulso ha sido transmitido por el radar, se conmutan los circuitos de la antena para recibir el eco de la transmisión. La señal recibida en la antena es detectada y amplificada por el circuito de microondas MIC. El circuito de microondas mezcla la señal con un oscilador local para transportar la señal de frecuencia de 9.4 Ghz a frecuencia intermedia de 60 Mhz. Esta señal es la que se aplica a la entrada de la tarjeta de amplificador de FI. Las funciones del módulo de amplificación de FI (AMP FI) son las siguientes: La salida del amplificador de FI es procesada por una tarjeta de amplificación de video, que amplifica y procesa las señales de ecos del radar. En esta etapa la señal recibe el siguiente tratamiento: Reducción del ruido del nivel del mar y lluvia. Control de ganancia STC (de inglés Slow Time Control), señal que se utiliza para compensar el eco de señales lejanas al radar. Intensidad de ecos. Conversión de logarítmica a lineal. La señal de vídeo de RF a la salida del amplificador de FI es convertida a señal digital de 7 bits y después se codifica a 3 bits, y se almacenan los ecos promedio. Los datos almacenados en memoria son leídos y aplicados en un arreglo lógico el cual les da prioridad para ser desplegados en pantalla. Estos datos son convertidos a una forma analógica (DAC) y ésta es la señal de vídeo RGB desplegada en la pantalla de video. FURUNO- Tabla Especificaciones del Radar Duración del pulso 0.08 µs a. µs Radio Frecuencia 9.4 Giga Hz. Potencia pico de 5 Kwatt. Frecuencia de repetición de pulsos 600, 000 Hz. Resolución alcance 5 m Resolución radial.5 Rotación de la antena 5 ó 36 r.p.m. Antena de polarización Horizontal 3.4 m. Fuente: Elaboración propia 4. SISTEMA DE ADQUISICIÓN El sistema de adquisición se instaló para su operación en el Hotel Rosarito Beach en Rosarito B.C. y en la Bahia de todos los Santos en Ensenada, B. C. El sistema tiene la facilidad de ser trasladado a otros sitios en la costa con la finalidad de estudiar otros fenómenos oceanográficos que se puedan determinar con las imágenes de la superficie del mar. La Fig. 3 muestra una imagen tomada en la costa de Rosarito, B.C., donde se pueden apreciar los patrones de las olas y la presencia de algunas nubes. El sistema es capaz de capturar secuencias de imágenes con un periodo de tiempo programado por horas. Una vez capturadas estas imágenes son guardadas en el disco duro de la computadora, para después ser respaldadas en disco de alta capacidad o DVD. Al utilizar una velocidad de muestreo de 0 MSPS con 5 muestras por cada pulso de exploración del radar se tiene un alcance de 3840 m. Cada pixel en la pantalla de la computadora representa un área de 7.5 m x 7.5 m. Figura 3. Imagen de radar capturada con el sistema, correspondiente a la costa de Rosarito, B. C. Desarrollo 3.. DETECCIÓN CON EL RADAR La reflexión (ecos) de las microondas depende de la interacción que tienen con las propiedades físicas y geométricas del objeto material donde inciden, como son tamaño, corte, rugosidad y orientación de la superficie. Al ser emitida una señal desde el radar, parte de la energía transmitida es reflejada hacia la antena del radar mediante al menos dos tipos de reflexión: a) reflexión especular, y b) reflexión difusa. El tipo de reflexión depende de la rugosidad de la superficie reflectora y del ángulo de incidencia de la radiación. Algunas investigaciones han mostrado que la reflexión de las microondas por las olas del mar depende de la longitud de onda y el ángulo de incidencia [6]. Fuente: Elaboracion propia 5 ESPECTRO DIRECCIONAL El estado del mar puede ser descripto como un campo de ondas con propiedades estadísticas invariantes a lo largo 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 45

55 de la posición R = (x; y) y del tiempo t. Donde ese campo de ondas es hom*ogéneo en dependencia espacial y estacionaria en su evolución temporal. Bajo estas consideraciones, la elevación de la superficie libre. El estado del mar puede ser descripto como un campo de ondas con propiedades estadísticas invariantes a lo largo de la posición R = (x, y) y del tiempo t. Donde ese campo de ondas es hom*ogéneo en dependencia espacial y estacionaria en su evolución temporal. Bajo estas consideraciones, la elevación de la superficie libre η (R,t) tiene la siguiente representación Ec.. Para (k, ω) del espectro de la imagen F[Xi]^(3) dentro del dominio Ω k, ω. 4. Filtrado de la imagen del espectro: El propósito de este paso es eliminar todas las componentes de la imagen del espectro las cuales no caen en el campo de oleaje. 5. Aplicación de la Función de Transferencia de la Modulación. Esta función (Tau[Mu]) es aplicada a el filtrado del espectro con el objetivo de corregir los efectos introducidos por el sobrado y la modulación de inclinación. 0 η ( R,t)=ʃ e i(kr ωt) dz ( k, ω) Z =(k, ω) Ω k, ω () Estimación de la altura significativa. El cálculo de la altura significativa del oleaje H s está basado en el mismo método para los SAR (Radares de Apertura Sintética) (Alpers y Hasselmann, 984). Siguiendo esta idea H s puede ser estimado por la regresión lineal ( Ziemer y Gunther, 994) (3) H s A+B * sqrt( Donde k = (k x,k y ) es vector de número de onda de dos dimensiones y ω es la frecuencia angular. El dominio de integración Ω k, ω está definido como la frecuencia angular. El dominio de integración Ω k, ω está definido Ec. como Ω k, ω=[ kx c,kx c )x[ ky c,ky c ) x [ ωc, ωc) () Donde kx c, ky c y ωc son los límites de corte de Nyquist para cada variable espectral. Es obtenido aplicando una técnica de modelo inverso.. Normalización de la Imagen: substracción de la intensidad media y la tendencia espacial de la serie de tiempo.. Estimación Espectral: Aplicación del algoritmo de la Transformada Discreta de Fourier (DFT) en 3D con las dimensiones (x, y, t) para obtener la estimación del espectro. Las tres principales componentes de la energía total del espectro: Donde A y B son constantes de calibración las cuales depende de la instalación de radar. SNR es la Relación Señal a Ruido, que está definida como la relación entre la energía espectral entre espectro de energía BNG. Serie de N t consecutivas imágenes El muestreo de serie de tiempo de sea clutter Epsilon puede ser considerado como un muestreo temporal y espacial de un proceso estocástico. Ξ = { ξ ((x[ j ],x[ l ], t[ q ]) / 0< j < N x ; 0 < l < N y ; 0 < q< N t } Donde ξ es el valor de gris suministrado por el sistema de Radar. xi depende en cada muestra pasos de posición y tiempo. Los índice j, l y q cubren los números de pixeles de la serie de tiempo Xi (N x, N y, y N t muestrean en los ejes X, Y e t tiempo respectivamente). (4) () La componente del campo del oleaje (Young et al, 985). () Harmónicos de altura de la componentes debido a los mecanismos no lineales en las imágenes de radar marino ( Nieto, 997, Seemann, 997). (3) Espectro de Energía del Ruido de Fondo (BGN del inglés Background Noise) debido a la rugosidad de la superficie del mar (Seemann, 997). 3. Calculo de la corriente de la superficie U: Este paramento se obtiene por el análisis de la localización de la oleaje y las componente armónicos 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 46

56 6. CONCLUSIONES Se desarrolló un sistema de adquisición de imágenes digitales, tomadas con un radar marino, estas imágenes son usadas para estudiar fenómenos oceanográficos, que se presentan en la superficie del mar cerca de la costa. El sistema presenta una mayor calidad y cantidad de información que los métodos en donde se toma una fotografia y se digitaliza la pantalla del radar o la señal de vídeo RGB. Este sistema complementa la información que se obtiene con métodos tradicionales de registro del oleaje y con ello realizar mejor los estudios de los fenómenos marinos en la costa. Dada la cantidad de datos que se tienen que digitalizar, no es conveniente realizar un procesamiento en tiempo real de la información. El procesado se hace posteriormente con herramientas de procesamiento de imágenes. Para el caso específico en el que se requiera tener una información en tiempo real, se pueden considerar dispositivos con gran velocidad de procesamiento como Field-Programmable Gate Array (FPGA). El alcance y resolución que pueden tener las imágenes está limitada por el ancho del pulso (0.08 µseg) y por la velocidad a la cual es tomada cada muestra. En nuestro sistema podemos tomar hasta 40 MSPS. Para obtener una mejor resolución se requiere de un radar con un pulso más corto y en consecuencia una mayor velocidad de muestreo. En este trabajo se observó que es recomendable tomar la señal de ecos del radar a la salida del circuito amplificador de FI. 6. TRABAJOS FUTUROS Calibrar el sistema para que obtener el espectro direccional del oleaje. Utilizar una tarjeta de mayor 00 MSPS o más para tener mayor resolución, sobre un bus PCI. Procesar el tiempo real la captura de las imágenes del radar con circuitos FPGAs. Se agradece a los apoyos brindados del Instituto Politécnico Nacional con el proyecto: Espectro direccional del oleaje con imágenes de radar con registro No. SIP-0535 en su Secretaria de Investigación y Posgrado. 8. REFERENCIAS [.a]ochi, M. K Ocean Waves:The Stochastic Approach. Cambridge University Press, New York. [] J. Buckley y A. Morton, On the Determination of Directional Sea Surface Spectra from Marine Radar Imagery. Phys. Dep., Royal Roads Military College. FMO Victoria, British Columbia, CANADA, 99. [] FURUNO ELECTRIC, Furuno FR- User s Manual, Furuno Electric, Nishinomiya, Japón, 993. [3] S. Ramos Rodríguez, C. Nava Button y F. Ocampo Torres, M. A.Tenorio González y V. Raqueline Alcantar, Estimación de la Dirección de Oleaje Mediante un Radar Marino. Com. Académicas. Serie Oceanografía Física, CICESE, 46 pp. CTOFT9407, 994. [4] M. Trask Henschel, Analysis of Marine Radar Image Spectra Collected During ERS- Cal/Val Experiment. Atmosphere-Ocean. 3 rd International Workshops on Wave Hindcasting and Forecasting. Montreal, May 9-, p 8,99. [5] J. Wurman, Design and Prelimary Data from a Portable, Pencil-Beam, Pulsed Doppler, X-Band Radar. School of Meteorology, Universidad of Oklahoma, 995 [6] J. W. Wright, A new model for sea clutter, IEEE Trans. Ant. and Prop. Vol. AP-6, pp 7-3, 968. Roberto Herrera Charles: Doctor en Ciencias de la computación CIC- IPN. Investigador del CITEDI desde 990. Teodoro Álvarez Sánchez: Maestro en Ciencias CIDETE-IPN, estudiante de Doctorado en Ciencias de la computación CIC. Investigador del CITEDI desde 009. Miguel A. Vergara Sánchez: Doctor en Ciencias Universidad Madrid España, Profesor de posgrado por más de 0 años en ESIA-IPN 7. AGRADECIMIENTOS 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 47

57 EXPERIMENTO NUMÉRICO DE DETECCIÓN DE SEÑAL QPSK PARA DISTRIBUCIÓN DE LLAVE CRIPTOGRÁFICA CUÁNTICA EN CONDICIONES DE ESTADOS COHERENTES DÉBILES CON CUADRATURAS SIMULTÁNEAS. Resumen Se presentan los resultados de experimentos numéricos de detección de señales, en un sistema de comunicaciones de distribución de llave criptográfica, para comunicaciones ópticas con seguridad incondicional. Se emula un sistema de detección cuántica, basado en estados coherentes débiles y detección simultánea de cuadraturas, para una señal QPSK, con el fin de evaluar las condiciones generales requeridas para el procesamiento digital de señales en tiempo real, con sistemas embebidos. Se emula el proceso de detección por Lazo de Costas, en condiciones de un fotón por símbolo, y se comprueban condiciones de varianza similares a las reportadas en experimentos físicos. Los resultados muestran concordancia con la evidencia experimental disponible, y permiten la visualización del diagrama de amplitud-fase; así como de la concordancia con la distribución gaussiana relacionada a una transmisión óptica de un fotón por símbolo. Palabras clave: Criptografía Cuántica, Estados Coherentes Débiles, QKD, QPSK. EDUARDO ÁLVAREZ GUZMÁN, Ingeniero mecánico Dr. Profesor a nivel licenciatura y posgrado Universidad Autónoma de Baja California ed_alvareg3@uabc.edu.mx EDITH GARCÍA CÁRDENAS, Ingeniero mecánico Dr. Profesor nivel licenciatura Universidad Autónoma de Baja California egarcia@uabc.edu.mx JOSÉ LUIS GONZALEZ VÁZQUEZ, Ingeniero Industrial en Electrónica Dr. Profesor a nivel licenciatura y posgrado Universidad Autónoma de Baja California jose.gonzalez@uabc.edu.mx. INTRODUCCIÓN En la actualidad, los sistemas de telecomunicaciones han permeado de tal manera en el contexto social, económico, político y cultural, que han redefinido las interacciones y complejidad tanto de la privacidad, como de la secrecía []. En éste contexto, el uso de sistemas criptográficos potentes generalmente es susceptible de ataques de tipo ingeniería social, intercepción de la llave criptográfica, o el ataque numérico, directo sobre el algoritmo de codificación. En el caso de la intercepción de la llave criptográfica, el problema fundamental, es que el atacante puede interferir en el canal de comunicaciones sin ser detectado. Éste es el aspecto que la distribución de llave criptográfica empleando criptografía cuántica (más comúnmente referida por sus siglas en inglés Quantum Key Distribution o QKD). Si bien actualmente existen algunos sistemas que ofrecen ésta tecnología, en éstos momentos, se encuentra en su etapa de desarrollo inicial, lo cual implica que aún no se han resuelto una gran cantidad de problemas técnicos, ya sea por la falta de una teoría que permita identificar la mejor estrategia de implementación, como por la falta de dispositivos y técnicas que hagan compatible éstos sistemas, con los ya existentes en el mundo de las telecomunicaciones modernas. En sí, existen varios componentes que aún requieren desarrollo, y que mediante las técnicas adecuadas pueden ofrecer la capacidad necesaria para trabajar con señales en canales de comunicaciones cuánticos. El presente trabajo revisa las características teóricas que se presentan en el momento en que la señal óptica, ha sido detectada en un arreglo hom*odino de comunicaciones ópticas [], y del cual es posible extraer las cuadraturas simultáneas [3]. La implementación en sistemas empotrados de estos sistemas de comunicación segura no es trivial, ya que debido a que las velocidades de transmisión en sistemas de comunicaciones ópticos típicos (del orden de los Gbps), los sistemas empotrados, hace que los sistemas empotrados resulten costosos, de implementaciones ad-hoc, y sometidos a desventajosas tasas de señal-a-ruido, de modo que hay que considerar escenarios diversos adecuados para su uso en el entorno de las comunicaciones ópticas, y los enlaces ópticos por criptografía cuántica.. CONTENIDO. Características generales En un enlace de comunicaciones ópticas por criptografía cuántica, la señal transmitida y recibida, se encuentra en el orden de un fotón por bit. En un enlace tradicional de comunicaciones ópticas, las señales suelen contener varios miles o millones de fotones por bit transmitido, sin embargo, ésta condición, incrementa la probabilidad de que un espía capture la información a transmitir. En el mundo de las comunicaciones seguras, se considera típicamente a tres actores básicos: Alice (considerada como la fuente de información a transmitir), Bob (considerado como el receptor de la información) y Eva (de eavesdopper, o espía, quien intenta robar la 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 48

58 información). En el escenario tradicional de comunicaciones, se considera que Alice y Bob intercambian información, con un sistema que emplea varios miles de fotones por bit, en éste contexto Eva, puede insertar algún tipo de dispositivo, que extraiga unos cuantos cientos de fotones, sin que Alice y Bob se percaten, con lo cual Eva asegura que su capacidad de espiar, sea ignorada por Alice y Bob.. Criptografía cuántica En el contexto de las comunicaciones ópticas por criptografía cuántica, Alice y Bob, transmiten un solo fotón por bit de información. Esto implica que si Eva inserta algún dispositivo en el canal, sólo podría extraer el fotón transmitido. Evidentemente, esto implicaría que Bob no recibiría el fotón esperado, lo cual le permite saber que están siendo espiados, con lo cual puede alertar a Alice, para que deje de transmitir información. El resultado es que Eva sólo podrá capturar a lo sumo, unos pocos bits transmitidos, incapacitándola para que emplee otras estrategias de ataque criptográfico sobre la información robada. La descripción del enlace de comunicaciones, en función de la relación señal a ruido del enlace cuántico, se ve afectado por el ruido de vacío. Es sabido que en los sistemas de comunicaciones, es posible describir las características de enlaces digitales, a partir de la probabilidad de error, y ésta probabilidad es descrita en función de la relación señal a ruido del sistema, a partir del cual es posible determinar el límite de Capacidad de canal definida por Shannon como: ( * ( ) Donde B es el ancho de banda de canal, P av es la potencia promedio y N0 el ruido en el sistema [4]. En éstas condiciones, el protocolo de comunicación, cuántica, puede basarse en el uso de las probabilidades de error, y el trabajo con dos bases de medición cuántica, ejemplos del protocolo de comunicación son el BB84, B9, protocolos para Variables Continuas, o protocolos para Variables Discretas [5]..3 Hardware Una característica adicional de los sistemas de comunicaciones cuánticos, es el llamado Principio de no clonación. Éste principio estipula, que no es posible copiar una partícula sin conocer su estado cuántico; y. basándose en el principio de incertidumbre de Heisenberg, que el acto de observar un sistema, modifica su su estado cuántico, ya que como establece el principio de incertidumbre de Heisenberg el observar (medir) un sistema modifica su estado, es decir, se produciría una alteración que sería detectable por Bob. Otro elemento práctico en el sistema, es la característica específica de ruido en condiciones cuánticas, se presenta con la creación aniquilación de pares de partículas en el universo, y se conoce como ruido de vacío. En el caso específico, de los enlaces cuánticos, el efecto es la existencia de un ruido cuya potencia está asociada a la energía de la partícula en estudio, en nuestro caso, el fotón; por lo cual la potencia de ruido será equiparable a la energía de un fotón, en el momento en que se cambia de longitud de onda, la potencia del ruido cuántico se modifica de manera correspondiente. En un sistema cuántico de comunicaciones, cualquier puerto de entrada que no esté en uso contribuye con un incremento en el ruido del sistema lo que facilita detectar conexiones no-desables. En cuanto a las características de enlace, considerando un sistema binario, es posible asociar la transmisión de un fotón con un estado base definido, con un Qbit; para el cual, la probabilidad de error asociado a su recepción, estará relacionado con la relación Energía de bit a Ruido, en el sistema. Si los estados bases seleccionados presentan una distancia de energía adecuada, la probabilidad de error de bit estará asociada a una relación señal a ruido cercana a 0.5 En la implementación física del sistema, la detección de la señal óptica, puede realizarse mediante contadores de fotones (el cual actualmente presenta problemas por su velocidad de respuesta, y por el hecho de no estar diseñados para su uso en las redes actuales de comunicaciones ópticas), o en fotodetectores cuánticos, los cuales aún se encuentran en desarrollo, aunque presentan las características adecuadas para las redes de comunicaciones ópticas actuales. Los fotodetectores, una vez implementado en el sistema óptico correspondiente, nos permiten recibir la señal óptica y convertirla al dominio eléctrico, con lo cual, los sistemas electrónicos, deben presentar un grado de madurez que compense las dificultades inherentes en el proceso de detección de señales cuánticas (por ejemplo, la potencia óptica recibida, puede ser de cercana a 45 femtowatts, y ésta señal debe ser susceptible de detectarse y procesarse en el dominio eléctrico. El sistema óptico autohom*odino, sobre el que se basa éste trabajo, se implementa para un láser sintonizable, a 55 nm, que se modula en fase mediante un dispositivo electro-óptico, para implementar una modulación BPSK, (en nuestro caso consideramos el caso de una señal QPSK) y a continuación atenuado hasta alcanzar la potencia de fotón por bit (45 fw) y transmitida en espacio libre. En este documento el transmisor fue configurado para enviar patrones de secuencias de '0's y ''s, para producir transmisión de fotón por bit. Las fases de la señal, se emplean como base del protocolo, tal que dos estados de fase ortogonales, permiten la transmisión de dos bits, y la elección arbitraria de la base, sirve como elemento central en un 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 49

59 esquema similar al BB84. En éstas condiciones podemos contar con los estados fasoriales: p/4ñ, -p/4ñ, 3p /4ñ, -3p/4ñ, y la combinación de bases ofrecen los Qbits para el intercambio de la llave. La señal eléctrica recibida, en el proceso mediante una configuración de Lazo de Costas hom*odino, tiene una relación señal a ruido de (no olvidemos que al transmitir un solo fotón, y siendo el ruido cuántico de vacío, correspondiente a la energía de un fotón, ésta relación debe ser cercana a éste valor, para asegurar las propiedades cuánticas del enlace), por lo que es necesario realizar un proceso de filtrado, en el que pueden aprovecharse sistemas embebidos, para su procesamiento. Una vez que la señal ha sido filtrada, es posible realizar el proceso de recuperación de bit. En las condiciones de transmisión, la probabilidad de error de bit, es cercano al 0.5. Bajo estas características, se puede identificar que la característica espectral del ruido cuántico (o ruido de vacío) presenta un comportamiento blanco gaussiano aditivo. La señal eléctrica obtenida de los fotodetectores, presenta un ancho de banda de 5 Mhz, mientras los datos se transmiten a 350 Kbps. El proceso de detección en el sistema cuántico, se basa experimentos numéricos y restricciones del modelo. El experimento numérico desarrollado, representa las señales eléctricas recibidas, en el proceso de detección hom*odina y las características de la señal eléctrica a procesar. 3. EXPERIMENTOS NUMÉRICOS La implementación se realiza en GNU Octave [8,9], empleando las funciones generales y características matriciales del sistema. En el programa se define un vector temporal, y una ristra de datos para el canal I como para el canal Q. Éstas ristras son empleadas para la modulación de una señal portadora, considerando una valor normalizado a, y que puede ser adaptable a las condiciones imperantes por la salida del modulador electro óptico que produce la señal QPSK, bajo el criterio del protocolo basado en bases ortogonales. En éste caso se considera que un valor unitario, está referido a un fotón por bit. Se simula la transmisión de la señal modulada, considerando el ruido cuántico que se agrega a la señal, considerando el ruido base de un fotón, y la energía del ruido de vacío, estará por tanto definida para una escala similar (valor unitario), tal que la relación señal a ruido en el sistema queda establecido de acuerdo con el modelo cuántico: ( ) constante de Plank. El proceso de recepción mediante lazo de costas, se simula implementando las operaciones matemáticas básicas involucradas en el proceso, y considerando para una primera aproximación, que el sistema es hom*odino, y en fase, tal que la recepción de la señal óptica resultará descrita de manera equiparable con la respuesta eléctrica observada en un fotodetector balanceado New Focus 8. La señal eléctrica resultante, puede ser convertida entonces mediante un sistema ADC, cuya elección puede depender de las tasas de transmisión, al tener que realizar un compromiso entre la velocidad de conversión y el número de bits requeridos para el proceso de conversión. La simulación numérica arroja resultados gen el dominio del tiempo, y en el dominio eléctrico de la representación de los símbolos. El experimento numérico, permite el escalamiento temporal y de resolución en la detección de las señales. Para el presente trabajo, se considera un convertidor ADC de 4 bits, y un muestreo basado en un reloj a 3 MHz. Los resultados sugieren que tanto la elección del punto de cruce para la detección de la señal recibida, como el instante temporal de muestreo requerido para la recuperación de bits, en el contexto de los sistemas de comunicaciones digitales, presenta un jitter controlable, y el histograma correspondiente a la variación del nivel la señal eléctrica afectada por una relación SNR de se verá beneficiada por un proceso de filtrado. Como prueba de concepto se emplea un filtro digital de Bessel de segundo orden, y se observa un comportamiento que permite recuperar los Qbits con una certidumbre razonable dentro del BER de 0.5 esperado. 4. ANÁLISIS DE RESULTADOS Los datos numéricos muestran características que permiten definir los criterios de selección del sistema empotrado adecuado para el sistema. Figura. Comportamiento de la señal eléctrica sin filtrado digital, comparado con la señal de Qbits procesada por filtrado digital paso bajas. Fuente: elaboración propia a partir de Octave Community, GNU Octave 3.8., Donde P es la potencia correspondiente al número de fotones por bit, n es la frecuencia del fotón, h la Como se aprecia en la Figura, la señal recibida en el experimento numérico, presenta un comportamiento 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 50

60 estadístico, similar al de los experimentos físicos observados en la detección de las señales I y Q del sistema. La línea azul corresponde a las variaciones de la señal con una relación señal a ruido de, mientras la línea verde representa la señal filtrada. Del lado derecho se puede observar el histograma de voltaje para los niveles de decisión asociables a los Qbits recibidos. El histograma de la señal antes del filtrado, muestra la distribución gaussiana básica, en la cual la probabilidad de error de bit, para los símbolos positivo y negativo, se traslapan a un grado que resulta difícil identificar el estado de la señal. La señal filtrada, muestra la distribución gaussiana característica de los dos símbolos y cumple con el caso de una probabilidad de error de bit correspondiente a 0.5, condición en la cual se detecta con razonable probabilidad de error la señal, pudiendo cumplir con las restricciones de protocolos como el BB84. En la Figura se observa el diagrama de constelación obtenido en el experimento numérico, posterior al filtrado de la señal. En el momento de observar el diagrama de constelaciones los resultados obtenidos, se pueden apreciar claramente los márgenes de decisión para identificar la existencia de las posiciones correspondientes a los estados cuánticos: empleados en el sistema, como bases ortogonales: p/4ñ, -p/4ñ, 3p /4ñ, -3p/4ñ Es claro que la recuperación de los niveles en el caso de un sistema óptico cuántico para detección de cuadraturas simultáneas [0] se puede ver beneficiado por las bondades de sistemas embebidos en el análisis y recuperación de símbolos, para su posterior implementación dentro del protocolo seleccionado para la transmisión de la llave criptográfica correspondiente. Figura. Diagrama de constelación QPSK, de los Qbits, detectados. Fuente: elaboración propia a partir de Octave Community, GNU Octave 3.8., CONCLUSIONES Con base en los resultados obtenidos, se infiere que es posible la implementación de un sistema de detección de datos para distribución de llave criptográfica, en sistemas ópticos de comunicaciones cuántica, con estados coherentes débiles y detección de cuadraturas simultáneas en sistemas empotrados. El uso del filtrado digital, muestra una mejora en la característica de la señal eléctrica, con menor ruido, lo que ofrece la posibilidad de reconocer los Qbits recibidos, mediante el procesamiento en un sistema embebido. La posibilidad de integrar el protocolo de reconciliación de la llave criptográfica, así como el mecanismo de detección de la presencia del espía (mediante el análisis del incremento del ruido en el sistema), promete facilitar la implementación de éstos sistemas. El filtrado digital requiere mantenerse de bajo orden para minimizar el defasamineto producido en las señales, aun así resulta suficiente para seleccionar los niveles de decisión adecuadamente como se muestra la Fig.. Los resultados sugieren la existencia de otras variables ambientales que afectan la calidad del enlace, que se agregaran en un futuro a este análisis matemático. 6. REFERENCIAS []S. Ghernaouti-Hélie, "QUANTUM CRYPTOGRAPHY: An Innovation in the Domain of Secure Information Transmission", SECOQC BUSINESS WHITE PAPER, Sep 008, ess_whitepaper_0b.pdf. Consultado el 5/0/05 [] S. H. Shams Mousavi, and P. Gallion, "Decoy State Quantum Key Distribution Using hom*odyne Detection", Physical Reviews A, Nov 04, 7 pp. arxiv: quant-ph [3] J. A. López ; E. García ; F. J. Mendieta ; A. Arvizu ; Phillipe Gallion; Simultaneous quadrature detection of suppressed-carrier weak-coherent-states using a hom*odyne optical Costas loop receiver. Proc. SPIE 863, Quantum Communications and Quantum Imaging IX, 8630E (September 06, 0); doi:0.7/ [4] Ellis, Andrew D.; Jian Zhao; Cotter, D., "Approaching the Non-Linear Shannon Limit", Lightwave Technology, Journal of, vol.8, no.4, pp.43,433, Feb.5, 00 doi: 0.09/JLT [5] Mohamed Elboukhari, Mostafa Azzizi, Abdel Malek Azzizi. Quantum Key Distribution Protocols: A survey, International Journal of Universal Computer Sciences, Vol. No, pp Feb al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

61 [6] N. Gisin, G. Ribordy, W. Tittel and H. Zbinden, Quantum cryptography, Reviews of Modern Physics, vol. 74, no., pp , 00. DOI: 0.03/RevModPhys [7] Bruss, D., Erdelyi, G., Meyer, T., Riege, T., and Rothe, J. Quantum cryptography: A survey. ACM Comput. Surv. Vol 39, No., Article 6 (June 007), 7 pp. DOI 0.45/ [8] Octave Community, GNU Octave 3.8., [9] John W Eaton, David Bateman and Søren Hauberg, GNU Octave Version 3.0 manual: a high-level interactive language for numerical computation. CreateSpace Independent Publishing Plataform, 009, ISBN [0] Edith Garcia, Francisco J Mendieta, Josue A López, Eduardo Álvarez, Arturo Arvizu, and Philippe Gallion, Phase-locked hom*odyne Measurement if Quasiprobability Q Function and detection of information-carrying weak-coherent states, Microwave and Optical Technology letters, Vol55, No 0, pp Oct al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

62 ANÁLISIS DE SEÑALES ENCEFALOGRÁFICAS DE JUGADORES DE VIDEOJUEGOS Analysis of encephalographic signals of gamers Resumen Se analizan señales encefalográfícas de jugadores de videojuegos de nivel principiante, intermedio y avanzado como un caso de estudio. Se inicia con una medición de cada jugador en estado de relajación, posteriormente se inicia el videojuego y se adquiere la señal encefalográfica una vez que se está en fase de concentración en el juego. Se puede observar el efecto de la estimulación, estrés, adrenalina y razonamiento en el sujeto de pruebas mientras juegan. Se utilizaron videojuegos de lucha, carreras y ajedrez. Como plataforma de adquisición se utiliza la diadema Epoc Emotiv que se comunica con la computadora. Las señales adquiridas se procesan en Matlab para obtener las potencias en las bandas de frecuencia Delta, Theta, Alpha, Beta y Ram por electrodo, presentes en los usuarios. Palabras claves bandas de frecuencia, potencia, señales encefalográficas. ESQUEDA ELIZONDO JOSÉ JAIME Ingeniero en Electrónica, M. C. Profesor Investigador Universidad Autónoma de Baja California jjesqueda@uabc.edu.mx JIMÉNEZ BERISTÁIN LAURA Ingeniero en Electrónica, M. C. Profesor Investigador Universidad Autónoma de Baja California ljimenezb@uabc.edu.mx MENA QUEVEDO EUGENIO ROQUE SANDOVAL JESÚS ALBERTO CAMACHO PERALES ADÁN ROJO RAMÍREZ YESENIA Estudiante de la carrera de Ingeniería Electrónica Facultad de Ciencias Químicas e Ingeniería Universidad Autónoma de Baja California menaquevedo.eugenio@uabc.edu.mx jesus.roque@uabc.edu.mx adan.camachoperales@uabc.edu.mx yesenia.rojo@uabc.edu.mx. INTRODUCCIÓN En la actualidad el invertir un poco de tiempo en un videojuego para distracción, relajación o meramente como entretenimiento es muy común. Por esa razón se despierta la curiosidad de indagar al análisis de la estimulación cerebral que presentan diferentes perfiles de video jugadores como lo son el principiante, el intermedio y el avanzado [-3]. Los videojuegos utilizados para este caso de estudio para las diferentes etapas de interés son: Super Smash Bros 64 del genero luchas con el cual pretendemos caracterizar las señales encefalografías activas al colocar al sujeto de prueba en un entorno de competencia, estrés y euforia. Dicho videojuego consiste en un escenario D por una plataforma de conveniencia como un personaje favorito. Mario Kart 64 del genero carreras el cual fomenta la competencia y adrenalina, consiste en una pista 3D con 8 jugadores los cuales tratan de entorpecer el progreso de los otros 7 por los medios de engaño y sabotaje. Ajedrez para el género de razonamiento el cual estimula la concentración y habilidad del usuario ante cambios en el panorama del juego ya que se encuentra compitiendo con un jugador desconocido. Los usuarios primeramente se presentan en un estado de relajación el cual dura tres minutos para eliminar cualquier estimulación ajena a la prueba. Posteriormente se realizó la prueba con cada uno de los video juegos mencionados anteriormente, se adquirieron cinco minutos de muestras para cada tipo de videojuego, lo cual corresponde muestras. Para el análisis se utilizan los últimos tres minutos de la prueba, cuando el usuario estaba ya más adaptado al juego. Dichos usuarios, de sexo masculino, se encuentran entre los y 40 años con un mínimo de conocimiento hasta una total adaptación en cualquier videojuego.. PLATAFORMA ENCEFALOGRÁFICA En la Figura a se muestra la distribución de los catorce electrodos de la diadema Epoc utilizada [4-6], más dos electrodos que se utilizan como referencia. Los electrodos se distribuyen en la parte occipital, pariental y frontal de la cabeza, su nomenclatura indica la región de la misma donde están ubicados: frontal (F), central (C), pariental (P), occipital (O), temporal (T) y frontopariental (FP). En la figura b se muestra la posición de los electrodos del EPOC y en [6] se presenta la 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 53

63 comparación con la distribución de los electrodos de un encefalógrafo tradicional de 64 electrodos. Hay que resaltar que los electrodos CMS y DRL son usados como referencia y que este equipo comercial es capaz de adquirir señales encefalográficas con muy buena calidad [5,6]. Asimismo, el headset tiene un ADC de 6 bits, con una resolución de 0.5 µv y descarta los dos bits menos significativos para minimizar los efectos del ruido instrumental. Figura a. Diadema (headset) Epoc Emotiv Fuente: Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. Brian Signal Detection Methodology for Attention Training using minimal EEG channels [5]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. Figura b. Distribución de los electrodos en la cabeza. interferencias de 50 y 60 Hz. En la Tabla se muestran los rangos de frecuencia en los que se clasifican las señales encefalográficas. Tabla. Rangos de frecuencia, amplitud de señales EEG y su correspondencia Rango de Amplitud Situación mental Nombre Frecuencia (µv) correspondiente (Hz) Delta Sueño profundo, meditación, hemisferio derecho activo. Estado de vigilia, Theta equilibrio entre hemisferios, armonía. Alfa Relajación, tranquilidad, creatividad, activación plena hemisferio derecho. Alerta máxima, Beta normal cuando se esta despierto. Ram Estrés y confusión. Fuente: Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. Brian Signal Detection Methodology for Attention Training using minimal EEG channels [5]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. 3. ALGORITMOS EMPLEADOS Las muestras obtenidas en cada prueba se procesan y analizan en Matlab, mediante una metodología basada en el Teorema de Wiener Khintchine, Transformada de Fourier de la Autocorrelación ver Ecuación, y presentada en [4], con la cual se extrae la potencia en Watts de cada electrodo y se divide en cada una de las bandas de frecuencia. Fuente: AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. La herramienta EPOC tiene una frecuencia fija de muestreo de 8 Hz (8 muestras por segundo, SPS), aunque de forma interna se sobremuestrea a 048 Hz por canal, pero este ancho de banda se usa para eliminar señales de muy alta frecuencia de otros aparatos que pueden generar alias a las señales del cerebro. Posteriormente, la señal es filtrada y reducida a un ancho de banda de 8 Hz para la transmisión inalámbrica, finalmente la señal se limita con un filtro digital (de 0. a 45 Hz) a un ancho de banda de 43 Hz para evitar De esta forma se puede determinar cuál hemisferio del cerebro presentó mayor actividad, así como también qué electrodo registró la mayor actividad. Asimismo, se puede determinar qué banda de frecuencia fue la más activa en cada hemisferio o región, ver la Figura b. En la figura se muestra el diagrama a bloques del algoritmo empleado. Sxx ( f ) R xx ( ) [] Señales EEG ( EPOC) Figura. Algoritmo empleado Espectro Segmentar Autocorrelación Potencia por Banda Fuente: Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 54

64 4. ANÁLISIS DE LAS MUESTRAS Figura 4. Distribución de potencias por banda en tres minutos de juego de Super Smash Bros 64. Para las pruebas se compara la señal en estado de relajación con la señal obtenida al jugar videojuegos. Se obtiene la sumatoria de las potencias totales por banda de frecuencia, por electrodo, y la suma de la potencia total en cada hemisferio del cerebro en un lapso de tiempo de tres minutos que corresponde a 304 muestras de actividad eléctrica cerebral. Los resultados obtenidos se muestran en las secciones subsecuentes. 4. Prueba en sujeto (sp). 3E-08.5E-08 E-08.5E-08 SP. Super Smash Bros 64 Edad del Sujeto de prueba: 40 años Nivel de juego: Principiante. En la figura 3 se muestra la distribución de la potencia por banda durante tres minutos en estado de relajación. En el eje horizontal se tienen los electrodos, ordenados por hemisferio, mientras que en el eje vertical se muestra la potencia en Watts. Se observa que hay una gran presencia de ondas Delta en los electrodos O, F8 del hemisferio derecho. Figura 3. Distribución de potencias por banda en tres minutos de relajación..e-09 E-09 8E-0 6E-0 4E-0 E-0 SP.Estado de relajación E-08 5E-09 0 Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. En la figura 5 se muestra que en el juego de carreras Mario Kart el sujeto de pruebas presentó mayor actividad en la región frontal F8, sobre todo en el hemisferio derecho. Asimismo, la magnitud de la potencia aumenta con respecto a los dos experimentos previos. Figura 5. Distribución de potencias por banda en tres minutos de juego de Mario Kart 64..4E-07.E-07.0E-07 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram SP.Prueba Mario Kart 64 0 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram 8.0E E-08 Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. En la figura 4 se muestra el resultado de la medición de tres minutos de juego de Super Smash Bros. Se observa mayor actividad en el hemisferio izquierdo, en F8 y O, mientras que del hemisferio izquierdo O registra la mayor actividad. La presencia de las ondas Delta indica que el jugador no estaba muy concentrado. Asimismo la escala de potencia es mayor en este juego que en relajación. 4.0E-08.0E E+00 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 55

65 Para la prueba de ajedrez, el sujeto de pruebas mostró una gran predominancia de ondas Delta, con mayor actividad en F8 y O, tal como se muestra en la figura 6. Figura 6. Distribución de potencias por banda en tres minutos de juego de Ajedrez. 4E E-08 3E-08.5E-08 E-08 SP. Prueba Ajedrez Figura 7. Distribución de potencias por banda en tres minutos de relajación. 8E-09 7E-09 6E-09 5E-09 4E-09 3E-09 SP. Estado de relajación.5e-08 E-09 E-08 E-09 5E-09 0 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 0 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram Delta Theta Alpha Beta Ram Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. De forma general, se observa que hay un aumento de potencia total en las pruebas de los videojuegos comparadas con el estado de relajación, así como mayor actividad del hemisferio derecho. En estado de relajación el electrodo F3 presenta mayor potencia en cuanto a la suma de potencia total de todas las bandas, mientras que en las pruebas jugando videojuegos el electrodo F8 presenta mayor potencia. Asimismo, también se observa un mayor porcentaje de ondas Alpha con respecto a las observadas en los videojuegos. También hay una mayor presencia de ondas Beta y Ram mientras se juega Mario Kart que en los otros videojuegos. 4. Prueba en sujeto (sp). Edad del Sujeto de prueba: 3 años Nivel de juego: Intermedio. En la figura 7 se muestra el resultado obtenido durante los tres minutos de relajación. Se observa mayor actividad en el electrodo F8 en el hemisferio derecho y en FC5 en el hemisferio izquierdo, pero con mucha menor potencia. Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. En la figura 8 se observa el resultado obtenido para Super Smash Bros y el electrodo que registra la mayor actividad es F3 del hemisferio izquierdo, sin embargo, P8 presenta la mayor actividad Delta de todo el experimento. Para el caso del Mario Kart, se observa que la mayor actividad se presentó en P7, figura 9. Para el ajedrez, el electrodo más activo fue F8, tal como se muestra en la figura 0. Para este sujeto de prueba, se obtuvieron potencias mayores en la prueba con el juego Mario Kart. Además, no se observan aumentos significativos en la potencia total por banda cuando se está jugando respecto al estado de relajación. Hay mayor potencia en el hemisferio izquierdo jugando Mario Kart 64 y Super Smash Bros 64, mientras que hubo mayor potencia en el electrodo F8 al jugar ajedrez y durante el estado de relajación. Asimismo, para este caso, se observa una mayor presencia de ondas Delta al jugar Super Smash Bros, mientras que en Mario Kart hubo mayor cantidad de ondas Alpha. Las ondas Theta se presentaron con mayor intensidad en Super Smash Bros. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 56

66 Figura 8. Distribución de potencias por banda en tres minutos de juego de Super Smash Bros 64. 6E-09 5E-09 4E-09 3E-09 E-09 E-09 0 Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. Figura 9. Distribución de potencias por banda en tres minutos de juego de Mario Kart 64..E-08 E-08 8E-09 6E-09 4E-09 SP. Prueba Super Smash Bros 64 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram SP. Prueba con Mario Kart 64 Figura 0. Distribución de potencias por banda en tres minutos de juego de Ajedrez..E-08 E-08 8E-09 6E-09 4E-09 E-09 0 Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. 4.3 Prueba en sujeto (sp3). SP.Prueba con Ajedrez AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram Edad del Sujeto de prueba: 4 años Nivel de juego: Avanzado En la figura se muestra la distribución de las potencias por banda en tres minutos de relajación para el sujeto de prueba 3. Se observa una predominancia de la señal registrada en el electrodo P7. Figura. Distribución de potencias por banda en tres minutos de relajación. SP3. Estado de relajación E-09 0 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram 5E-09 4E-09 3E-09 E-09 Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. Para este sujeto de prueba, al comparar el estado de relajación con las mediciones obtenidas en cada uno de los juegos se observa que hay mayor potencia en la prueba con el juego Super Smash Bros. Asimismo, no se observa un aumento significativo en la potencia total por banda cuando se está jugando video juegos, respecto al estado de relajación.se aprecia una mayor potencia en el hemisferio izquierdo jugando Mario Kart 64 y Super Smash Bros. También se observa una mayor potencia en el electrodo F8 al jugar ajedrez y durante el estado de relajación. E-09 0 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. En la figura se muestra la actividad presente en los tres minutos de juego de Super Smash Bros. En este caso el electrodo con mayor actividad fue F8. Se observa que la distribución de potencia en esas bandas fue muy 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 57

67 semejante en las bandas Theta, Alfa, Beta y Ram, así como ligeramente menor que en Delta. Figura. Distribución de potencias por banda en tres minutos de juego de Super Smash Bros 64. 8E-09 7E-09 6E-09 5E-09 4E-09 3E-09 E-09 E-09 0 Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. En la figura 3 se muestra el resultado obtenido para los tres minutos de Mario Kart, se observa que la mayor actividad la registra también el electrodo F8, sin embargo la magnitud de la potencia es menor que en la figura. De igual forma, se muestra predominancia de las ondas Delta y valores de potencia semejantes en las bandas Theta a Ram en los demás electrodos. Figura 3. Distribución de potencias por banda en tres minutos de juego de Mario Kart 64. 8E-0 7E-0 6E-0 SP3. Super Smash Bros 64 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram SP3. Prueba con Mario Kart 64 En la figura 3 se muestra el resultado obtenido en el juego de Ajedrez. Se observa que la mayor actividad la registró el electrodo FC5, con una potencia casi 0 veces mayor en la banda Delta, con respecto a las otras bandas. Para este sujeto, al comparar el estado de relajación con las demás pruebas se observa un aumento general de potencia durante la prueba con el video juego Mario Kart 64, también se observa que durante las pruebas con los videojuegos Mario Kart y Super Smash bros el electrodo F8 presenta la mayor potencia. En este sujeto, no fue mayor la potencia en un solo hemisferio del cerebro, ya que en dos de las pruebas se observa que existe mayor potencia en el hemisferio izquierdo como se muestra en las figuras y 4, y se puede observar mayor potencia en el hemisferio derecho en las figuras y 3. Figura 4. Distribución de potencias por banda en tres minutos de juego de Ajedrez..E-08 E-08 8E-09 6E-09 4E-09 E-09 0 SP3. Prueba con Ajedrez AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. 5E-0 4E-0 3E-0 E-0 E-0 0 AF3 F7 F3 FC5 T7 P7 O O P8 T8 FC6 F4 F8 AF4 Delta Theta Alpha Beta Ram 5. CONCLUSIONES Al analizar los resultados del procesamiento se concluye que al pasar de estado de relajación al juego (en este caso de estudio) hubo un aumento significativo en el nivel de potencia, ya que al estar en relajación la potencia obtenida se encontraba entre y 7 nano Watts para los usuarios y en el juego la potencia en algunos casos superó los 30 nano watts. Es decir, se presentó un incremento en el nivel de potencia. Fuente: Elaboración propia a partir de Metodología para el análisis de señales encefalográficas en actividades lúdicas [4]. AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device [6]. Asimismo, dependiendo del juego, el electrodo más activo fue F8, con seis ocurrencias, mientras que P7, F3 y FC5 solo tuvieron una ocurrencia. Mientras que en relajación los tres sujetos de prueba tuvieron la mayor 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 58

68 potencia en diferente electrodo. Como trabajo futuro queda aumentar la muestra y probar con jugadoras. 6. REFERENCIAS [] Hamizah R. Khairuddin, Aamir S. Malik, Wajid Mumtaz, Nidal Kamel, Likun Xia, Analysis of EEG Signals Regularity in Adults during Video Game Play in D and 3D, 35th Annual International Conference of the IEEE EMBS Osaka, Japan, 3-7 July, 03 [] C. Sheikholeslami, H. Yuan, E.J. He, X. Bai, L. Yang, and B. He, A High Resolution EEG Study of Dynamic Brain Activity during Video Game Play [3] E.J. He, H. Yuan, L. Yang, C Sheikholeslami, and B. He, EEG Spatio-spectral Mapping during Video Game Play, Proceedings of the 5th International Conference on Information Technology and Application in Biomedicine, in conjunction with The nd International Symposium & Summer School on Biomedical and Health Engineering Shenzhen, China, May 30-3, 008 [4] José Jaime Esqueda et al, Metodología para el análisis de señales encefalográficas en actividades lúdicas, Congreso Internacional de Investigación Academia Journas Celaya 04 [5] Kridsakron Yaomanee, Seth Pan-ngum, Pasin Irasena Na Ayuthaya, Brian Signal Detection Methodology for Attention Training using minimal EEG channels, 0 tenth International Conference on ICT and Knowledge Engineering, 0 [6] Matthieu Duvinage, Thierry Castermans, Thierry Dutoit, M. Petieau,T. Hoellinger, C. De Saedeleer, K. Seetharaman, and G. Cheron, AP300-Based quantitative comparison between the Emotiv EPOC headset and a medical EEG device, in Proc. Biomedical Engineering, track , Febuary 5-7, 0 [7] John G. Proakis. Dimitris G. Manolakis (007). Digital Signal Processing principles, algorithms, and applications, PRENTICE HALL /PEARSONI.S.B.N al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 59

69 SISTEMA DE PROCESAMIENTO DE SEÑALES ELECTROCARDIOGRÁFICAS EN LABVIEW Resumen Se presenta el desarrollo de un sistema de procesamiento de señales electrocardiográficas en LabView que permite detectar problemas cardiacos. El procesamiento de la señal cardiaca se lleva a cabo en el domino de la frecuencia y el resultado se correlacionándola con señales predefinidas de problemas cardiacos como lo son la Taquicardia Ventricular y la Hyperkalcemia. Palabras claves : Espectro en frecuencia, Coeficiente de Correlación, ECG. M. C. JOSÉ JAIME ESQUEDA ELIZONDO UABC jjesqueda@uabc.edu.mx M. C. ROBERTO ALEJANDRO REYES MARTÍNEZ UABC roberto@uabc.edu.mx M. C. MARCO ANTONIO PINTO RAMOS UABC mpinto@uabc.edu.mx ISAAC ALEJANDRO ÁLVAREZ TERÁN JOSÉ DIEGO RODRÍGUEZ ORTIZ UABC isaac.alvarez@uabc.edu.mx diego.rodriguez9@uabc.edu.mx. INTRODUCCION Los impulsos cardiacos generados por el corazón contienen una forma de onda particular, misma que ayuda a los especialistas a determinar el estado del paciente a partir de patrones observados en las ondas. Tomando en cuenta que las enfermedades cardiacas se encuentran entre las principales razones de muerte en México adquiere relevancia el hecho de que este proyecto propone una innovación en la manera de interpretar las lecturas que nos arroja el electrocardiógrafo. Este equipo entrega la señal ECG analógica desacoplada, acondicionada y filtrada por una terminal. De esta forma, la señal capturada queda lista para procesos posteriores. En la figura se muestra el diagrama a bloques del sistema propuesto. Fig. : Diagrama a bloques del sistema Sujeto Electrodo En este documento mostramos el proceso y las técnicas necesarias para la interpretación de las ondas previamente mencionadas.. ADQUISICIÓN DE LA SEÑAL ECG Para la adquisición de la señal ECG, en este trabajo se utiliza un monitor cardiaco HP 7835C el cual funge como etapa de acondicionamiento de la señal ECG y que se muestra en la figura. ECG HP DAQ Señal Filtrada Figura.. Electrocardiograma HP 7835C Señal Capturada en la Computadora Fuente: Google imágenes Fuente: Elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 60

70 . Electrodos Para poder obtener los biopotenciales es necesario un elemento o sensor que sea la interfaz entre el cuerpo y electrocardiógrafo, a este elemento se le llama electrodo. El electrodo es un transductor, el cuales un dispositivo que proporciona una salida eléctrica o en un formato medible o procesable a partir de una magnitud física, este convierte corriente iónica en corriente eléctrica.. Ondas presentadas en el ECG El trazado típico de un electrocardiograma registrando un latido cardiaco normal consiste en una onda P, complejo QRS y la onda T. Lo que son los segmentos o intervalos que muestran la distancia entre ondas o deflexiones. Estas ondas son las que le permiten a los especialistas determinar la salud de un paciente además de marcar la pauta y los patrones para comparar con las de una enfermedad posible..3 Derivaciones Precordiales Con el monitor cardiaco utilizado se utilizaron 3 terminales los cuales van a estar conectados de la siguiente manera: -Electrodo conectado en la parte intercostal derecha. -Electrodo conectado en la parte intercostal izquierda. -Electrodo conectado en la pierna o en el pie izquierdo En la Figura 3 nos muestra 6 vectores en las que se puede conectar el electrodo izquierdo y las diferentes señales que se van a mostrar en el ECG esto es debido a su proximidad con el corazón. Fig.3 Ubicación de los puntos de conexión de los Vectores en el pecho y las ondas producidas en cada uno de los puntos. 3. COEFICIENTE DE CORRELACIÓN DE PEARSON Se dice que dos señales están relacionadas si varían conjuntamente. Desde un punto de vista estadístico, se dice que si dos sujetos tienen valores, altos o bajos simultáneamente en dos variables, se tiene una relación positiva, en cambio cuando los valores altos de un variable coinciden con los valores bajos en otra variable se tiene una relación negativa. Se define entonces a la correlación con respecto a la co-variación por lo que se puede determinar que ambos términos son conceptualmente equivalentes. El coeficiente de correlación de Pearson es un índice que mide el grado de covariancia que existe entre dos variables que se encuentren relacionadas linealmente, teniendo un gran énfasis en esta última parte donde decimos que deben de ser variables relacionadas linealmente ya que puede que existan variables que estén fuertemente relacionadas pero no de forma lineal lo que hace inútil el aplicar el coeficiente de correlación de Pearson. Los valores del coeficiente de correlación de Pearson oscilan entre los valores absolutos de 0 y tomando en cuenta que este último puede tener un signo positivo o negativo indicando así una relación perfecta positiva o una relación perfecta negativa. El coeficiente de correlación lineal de Pearson denominado como se calcula con la siguiente expresión: Se observa que el coeficiente de correlación de Pearson se basa en la media de los productos cruzados de las puntuaciones estandarizadas de X y Y (que son las variables en cuestión), siendo las puntuaciones estandarizadas el método del cálculo de cuantas desviaciones estándar se encuentra por encima o por debajo de la media la muestra en cuestión. () 3. Significado del coeficiente de correlación de PEARSON Cuando obtenemos el coeficiente de correlación de Pearson para saber si las variables X e Y están realmente relacionadas entre sí o si el coeficiente obtenido es producto de una coincidencia, se dice que un coeficiente de correlación es significativo si se puede afirmar con una cierta probabilidad que es diferente de cero o estadísticamente hablando la probabilidad de que tal coeficiente proceda de una población cuya población sea de cero, siendo así al obtener un coeficiente siempre tendremos dos posibles hipótesis: Fuente: Elaboración propia El coeficiente de correlacion obtenido proviene de una población cuya correlación es cero ( ). 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

71 El coeficiente de correlación obtenido proviene de una población cuyo coeficiente de correlación es diferente a cero ( ). Desde el supuesto de la Hipótesis nula ( ) se demuestra que la distribución muestral de correlaciones procedentes de una población caracterizada por una correlación igual a cero ( ) sigue una ley de Student con N- grados de libertad, de media el valor poblacional y desviación tipo: () En consecuencia, dado un cierto coeficiente de correlación obtenido en una determinada muestra se trata de comprobar si dicho coeficiente es posible que se encuentre dentro de la distribución muestral especificada por la Hipótesis nula. Para efectos prácticos, se calcula el número de desviaciones tipo que se encuentra el coeficiente obtenido del centro de la distribución, según la fórmula conocida: Y se compara el valor obtenido con el existente en las tablas para un cierto nivel de significación y N- grados de libertad ( ) que como se sabe, marca el límite (baja probabilidad de ocurrencia, según la Hipótesis nula) de pertenencia de un cierto coeficiente a la distribución muestra de correlaciones procedentes de una poblacióncon. De esta forma si: ( ) Se rechaza la hipótesis nula, con lo que se concluye que la correlación obtenida no procede de una población cuyo coeficiente de correlación sea cero. Por lo que las variables están relacionadas. ( ) Se acepta la hipótesis nula, con lo que se concluye que la concluye que la correlación obtenida procede de una población cuyo coeficiente de correlación es cero. Por lo que las variables no están relacionadas. 4 ANÁLISIS ESPECTRAL DE UNA FUNCIÓN Cuando se dice la palabra análisis se refiere a la acción de descomponer algo complejo en partes simples o identificar en ese algo complejo las partes más simples que lo forman. Dicho esto matemáticamente el análisis espectral está relacionado con una herramienta llamada transformada de Fourier o análisis de Fourier. Ese análisis puede llevarse a cabo para pequeños intervalos de tiempo, o menos frecuentemente para intervalos largos, o incluso puede realizarse el análisis espectral de una función determinada. (3) Además la transformada de Fourier de una función no sólo permite hacer una descomposición espectral de los formantes de una onda o señal oscilatoria, sino que con el espectro generado por el análisis de Fourier incluso se puede reconstruir (sintetizar) la función original mediante la transformada inversa. Para poder hacer eso, la transformada no solamente contiene información sobre la intensidad de determinada frecuencia, sino también sobre su fase. Esta información se puede representar como un vector bidimensional o como un número complejo. En las representaciones gráficas, frecuentemente sólo se representa el módulo al cuadrado de ese número, y el gráfico resultante se conoce como espectro de potencia o densidad espectral de potencia. 5. DESCRIPCIÓN DE LA METODOLOGÍA Para la recopilación de la señal del electrocardiógrafo se utilizó la DAQ (tarjeta de adquisición de datos de NI) con una resolución de bits y la plataforma de programación Lab View donde se llevó a cabo la manipulación y procesamiento de los datos obtenidos y donde además se desplegó los resultados de manera amigable y visible para el usuario. En cuanto a la selección de la frecuencia de muestreo a pesar del hecho de que la frecuencia cardiaca de un adulto en reposos oscila entre los 50 y 90 latidos por minuto en los pacientes sin problemas cardiacos se centró en la componente frecuencial más alta considerada útil que es de 50 Hz para poder implementar el Teorema de Nyquist al tomar como frecuencia de muestreo el doble de esta lo que a su vez nos evitara problemas con el efecto Alias. Una vez que se hizo capaz de obtener la señal de manera periódica se apoyó del BiomedicalToolkit el cual ofrece Labview para generar también las otras señales patrón, con el fin de poder compararlas se obtuvo su espectro en frecuencia ya que nos es más sencillo poder comparar la magnitud que tengan en sus componente frecuenciales que el compararlas tal cual ya que por la naturaleza de la lectura del ECG es probable que ambos simulador y señal original no estén en sintonía. Para poder compararlas se usó el coeficiente de correlación de pearson el cual nos arroja un número positivo si ambas señales están correlacionadas en cierta proporción y con la ayuda de un indicador booleano podemos saber si este coeficiente de correlación obtenido es verdadero o si se acepta la hipótesis nula y se asume que ambas señales no tienen relación, en esta parte del programa podemos observarla en la Fig.4 donde se muestra la conexión necesaria para este proceso. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

72 6. EXPERIMENTO Fig.5 Resultado de la experimentación con un sujeto femenino Las mediciones del experimento se llevaron a cabo en un sujeto femenino de años en reposo y con una frecuencia respiratoria estable. 7. RESULTADOS Ya que se pretende una aplicación donde se simplifique el entendimiento de la lectura del ECG para un usuario el cual no tenga amplios conocimientos sobre el tema nos apoyamos con la ayuda de indicadores Booleanos, graficas del espectro de frecuencia de la señal original obtenida del ECG,indicadores del nivel de calidad del ritmo cardiaco del usuario respecto a su edad y también ritmo cardiaco, indicadores numéricos para mostrar coeficiente de correlación de Pearson para la señal del usuario con respecto a las de una señal normal, la de una Taticardia ventricular y la de una Hyperkalemia con un indicador booleano para el rechazo o aceptación de la hipótesis nula. Como podemos observar en la Fig.5 los resultados parecen ser satisfactorios para nuestro sujeto de prueba al poder observar un de con respecto a la señal normal y muy poca relación con las enfermedades típicas lo cual se hace más evidente si vemos los espectros en frecuencia de las 4 señales descritas. Fig.4 Correlación de entre las señales del ECG 8. CONCLUSIONES Fuente: Elaboración propia Se logró establecer una relación entre la señal del usuario y la de una enfermedad cardiovascular proponiendo el uso del análisis en frecuencia ya que aun con el sujeto en reposo la onda presenta variaciones por lo cual una comparación punto a punto puede llegar a ser imposible motivo por el cual la señal se analiza por sus componentes en frecuencia evaluando así su relación con las componentes invariantes de las señales características de las enfermedades cardiovasculares con la ayuda del coeficiente de correlación de Pearson y de la plataforma de Labview con la cual se logró hacer análisis por medio de una plataforma grafica para el usuario y simplificar el análisis del ECG. 9. REFERENCIAS Fuente: Elaboración propia [] Ing. Ronald del Aguila, presentación, Electrodos para la medir biopotenciales Instrumentación biomédica dios/materias%0completas/instrumentacion%0biomedi ca/material/agosto%000/electrodos.pdf [] Coeficiente de correlacion de pearson [3] Morales Vallejo, Pedro (008) Estadística aplicada a las Ciencias Sociales. Universidad Pontificia Comillas, Correlacion y Covarianza correlacion.pdf [4] Análisis de esquemas de filtrado para señales electrocardiografícas, proyecto de grado para optar título de Tecnologia en electricidad, Leydy Laura Alvarez Escobar. José Jaime Esqueda Elizondo: Ingeniero Electrónico con estudios de Maestría en Ciencias y Maestro de la Universidad Autónoma de Baja California. Roberto Alejandro Reyes Martínez: Ingeniero Electrónico con estudios de Maestría en Ciencias y Maestro de la Universidad Autónoma de Baja California. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 63

73 Marco Antonio Pinto Ramos: Ingeniero Electrónico con estudios de Maestría en Ciencias y Maestro de la Universidad Autónoma de Baja California. Isaac Alejandro Álvarez Terán: Estudiante de Ingeniería en electrónica en la Universidad Autónoma de Baja California. José Diego Rodríguez Ortiz: Estudiante de Ingeniería en electrónica en la Universidad Autónoma de Baja California 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 64

74 CROSS-SENSOR IRIS VERIFICATION APPLYING ROBUST SEGMENTATION ALGORITHMS Abstract Iris recognition is being widely used in different environments where the identity of a person is necessary. Iris recognition system acquires an eye image; the iris in the image is then segmented and normalized for feature extraction process. The performance of iris recognition systems highly depends on segmentation stage, used to locate the iris region in an eye image. In this paper the comparison of four automatic segmentation methods is presented, those databases were acquired with different iris sensor and analyzed to determine the performance of segmentation algorithms to process images with heterogeneous characteristic in a non-cooperative environment. The ability of the system to work with non-ideal iris images has a significant importance because is a common realistic scenario. The receiver operating characteristic (ROC) curve was used to determine the optimal method that allows better performance in terms of false accept and false reject rates (FAR, FRR). The best performance scores was generated by the Weighted adaptive Hough Transform (WHT) segmentation method with GAR = %. Keywords Biometric system, Iris Recognition, Segmentation algorithms, Uncontrolled environments. GARCÍA VÁZQUEZ MIREYA S. Signal and Telecommunications, Ph. D. Director of CITEDI Instituto Politécnico Nacional msarai@ipn.mx GAREA LLANO EDUARDO Technical Sciences, Ph. D. Head of the Pattern Recognition Department of the Advanced Technologies Application Center of Cuba egarea@cenatav.co.cu COLORES VARGAS JUAN MIGUEL Electronic Engineer, Ph, D. Full Professor Universidad Autónoma de Baja California - CITEC dr.jcolores@gmail.com ZAMUDIO FUENTES LUIS MIGUEL Digital Systems, M. Postgraduate Department Head at CITEDI Instituto Politécnico Nacional lzamudiof@ipn.mx RAMÍREZ ACOSTA ALEJANDRO A. Electronics and Telecommunications, Ph, D. Department of Development Dmbedded Multimedia Systems. MIRAL R&D&I ramacos0@hotmail.com. INTRODUCCIÓN Biometric-based recognition systems have been a topic of active research during the last several years, because they allow accurate person identification and identity verification. Among them, the iris recognition systems have received much attention, because it provides high recognition rates. Nowadays, modern identity management systems are being developed in an attempt to improve iris recognition performance under non ideal situations i.e. unconstrained environments. These biometric recognition systems are more flexible, the aim has been to achieve automatic acquisition system, where the image acquisition process is transparent to the user. So, it is a challenging problem to maintain a stable iris recognition system which is effective for all type of iris sensors. Indeed, it is well-know that the quality of iris image varies with the type of iris camera used in capture. The optical lens, illumination wavelength and the number pixels across the sensor are some of the parameters of iris sensor, which determine variations of iris texture patterns. Also, in a real capturing iris images system, the person to recognize usually moves his head in different ways gives rise to non-ideal images (with occlusion, offangle, motion-blur and defocus) for recognition. Defocus blur and motion blur are the major source of iris image quality degradation [, ]. A typical iris recognition system commonly consists of four main modules as shown in Figure [3,4]: Acquisition, the aim is to acquire a high quality image. Preprocessing, involves the segmentation and normalization processes. The segmentation consists in isolating the iris region from the eye image. The normalization is used to compensate the varying size of the pupil. Feature encoding, uses texture analysis method to extract features from the normalized iris image. The significant features of the iris are extracted as a series of binary codes known as digital biometric template. Matching compares the 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 65

75 user digital biometric template with all the stored templates in the database. The matching metric will give a range of values of the compared templates from the same iris. Figure. Iris recognition system. identify an accurate, fast and robust iris segmentation algorithm. In this research we analyzed four segmentation algorithms; the accuracy and some noticed limitations. Identify the best one is highly desirable for further researches, especially in the field of application of iris recognition system for unconstrained environments. The remainder of this paper is organized as follows. Section presents the principles of the iris recognition system and a brief description of the different stages. Section 3 includes the segmentation scheme overview, methodology and a brief description of the evaluated segmentation methods, Section 4 presents the obtained results and finally the conclusions and future prospects are summarized in Section 5.. IRIS RECOGNITION SYSTEM Source: High confidence visual recognition of persons by a test of statistical independence [3], Iris Recognition: An Emerging Biometric Technology [4]. In the first stage, the acquisition of poor quality iris images can have a negative impact on segmentation algorithms and may be difficult to normalize and match, increasing the error probability [5]. Poor quality images generate translational and scale errors in segmentation algorithms. Translational errors occur when the center of the segmented circle is deviated n pixels from the center of the true circle. Scale errors occur when the detected and the true circles have different radius values. These two types of errors as shown in figure. Most iris recognition systems usually implement the segmentation process in the earliest stages, thus any failure on it compromises the whole recognition process, the segmentation error will further propagate and amplified during the encoding and matching steps. Figure. Failed iris segmentation results. The scheme, shown in Fig., is based on traditional process of iris recognition. However, it was set up to operate with video captured on less constrained environments. Next subsections provide a description of each stage.. Acquisition stage This stage is important since iris is small in size and dark in color, especially Asian people and it s difficult to acquire good quality images for analysis using the standard CCD camera, and ordinary lighting. So, it s necessary to use a special device to capture images with high quality while remaining non-invasive to the human user, this matter requires careful engineering. Ideally, the captured eye image should be centered in the frame, free of defocus and aberration errors which might be possible to achieve by forcing, for example, to the user to remain perfectly still while the video is taken.. Preprocessing stage The preprocessing stage performs the segmentation and normalization tasks whose main propose is to provide a standardized template with the isolated iris region, to enable the encoding and matching stage to perform an accurate iris recognition. Next subsections provide a description of these stages... Segmentation process Source: Image quality assessment for iris biometric [5]. After a short overview of an iris recognition system; the requirements for high quality iris images and the problem of iris segmentation, we can emphasize the importance to The segmentation process consists in isolate the iris region from the eye image. The precision on segmentation task plays an important role in the performance of entire iris recognition system. Since success of the system in upcoming stages is directly dependent on the precision of this stage [6]. The segmentation stage includes three following steps: Localization of iris inner boundary (the 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 66

76 boundary between pupil and iris). Localization of iris outer boundary (the limbic border between sclera and iris). Localization of boundary between eyelids and iris... Normalization process The normalization process is used to compensate the varying size of the iris region, in the iris frames, mainly because the stretching of the iris caused by pupil dilatation due to varying illumination levels. This process is done using the linear rubber sheet model proposed by Daugman [3]. This transformation maps each point within the iris region to polar coordinates (r,θ), where r and θ are in the intervals [0,] and [0,π], respectively. The mapping of the iris region from Cartesian coordinates,( ), to the normalised non-concentric polar representation is given by equation (). ( ( ) ( )) ( ) () ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) Where ( ) is the region image, ( ) are the original Cartesian coordinates, (r,θ) are the corresponding normalized polar coordinates, and are the coordinates of the pupil and iris boundaries along the θ direction..3 Feature extraction stage The extracted features are fed into the encoding stage which is used to obtain the biometric iris signature. This process has two components: First, the normalized iris region is convolved with a D Log-Gabor wavelets [7,8], where each signal corresponds to a particular circle extracted from the iris rim, the operator extract the most discriminating information present in an iris region. Second, the filter output is transformed into a binary code using the four quadrant phase encoder, with each filter producing two bits of data for each phasor..4 Matching stage The operation of this stage consists in the comparison of biometric iris signatures, this produced for each one a numeric dissimilarity value. In this scheme, the Hamming Distance (HD) that incorporates noise masking was employed. The HD measure can be used to make a decision whether the biometric iris signature is produced by the same or different users. The noise mask helps to use only the significant bits in calculating the HD between two biometric iris signatures. 3. IRIS VERIFICATION SCHEME It is important to highlight that the main goal of this research is to accurately identify people and reduce the user interaction with the system. Therefore, an iris verification system that applies robust methods at level of segmentation stage for cross-sensor iris recognition in unconstrained environment is proposed. The proposed system comprises the following steps. As image acquisition we used three unconstraint databases. The images set for each subject in the database were tested by four segmentation methods. It allowed to validate the system with one or more images of the iris of a person or persons either for the same type of sensor or multiple sensors simultaneously. Then a normal iris recognition steps were used (normalization, feature extraction and codification, verification and comparison) as it is observed in figure 3. The principal segmentation stage consists in the results of the best segmentation algorithm. The objective is to compare the performance of verification task for these four segmentation algorithms. 3. Databases To develop robust iris image preprocessing, feature extraction and matching methods across different iris sensors in unconstrained environments is necessary to use database collected with different iris cameras and different capture conditions. This section describes the features of databases used in this work. 3.. Casia-v3-interval It is an iris database provided by National Laboratory of Pattern Recognition, Institute of Automation, Chinese Academy of Sciences freely for iris recognition researchers. All iris images are 8 bit gray-level JPEG files, collected under near infrared illumination. Almost all subjects are Chinese. Because the database was collected in different times, the CASIA-Iris-Interval has a small overlap in subjects. Iris images of CASIA- Iris-Interval were captured with a self-developed close-up iris camera. The most compelling feature of this iris camera is that it has designed a circular NIR LED array, with suitable luminous flux for iris imaging. The CASIA-V3- INTERVAL [9], database is composed of high quality NIR illuminated indoor images with pixel resolution (639 images, 395 classes). For the experiments we used the whole database. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 67

77 Figure 3. Experimentation scheme. factors in the iris images. 3. Segmentation Evaluation Source: The Center of Biometrics and Security Research [9]. 3.. CASIA-V4-THOUSAND The CASIA-V4-THOUSAND [0], contains 0,000 iris images from,000 subjects, which were collected using IKEMB-00 camera produced by IrisKing ( IKEMB-00 is a dual-eye iris camera with friendly visual feedback, realizing the effect of What You See Is What You Get. To evaluate the precision of iris segmentation is not an easy task. Moreover, it is a questionable task, since no ground truth for correct iris segmentation is available. While is almost impossible to design a perfect automatic algorithm for segmentation checks. In this vein, the segmentation scheme is based on a visual comparison of the results obtained by the four segmentation methods. These methods have reported good results in different databases. For this purpose, each database is segmented for each of the segmentation methods and bad segmented images are extracted. Poorly segmented images are those that have a low percentage of iris texture (<60%), because they are occluded by eyelids or eyelashes or contain elements that do not belong to the eye. This occurs due to poor performance of the segmentation algorithm, see figure 4. Figure 4. Some examples of segmented images. Above: good segmented, below: bad segmented. The bounding boxes shown in the frontal LCD help users adjust their pose for high-quality iris image acquisition. The main sources of intra-class variations in CASIA-Iris- Thousand are eyeglasses and specular reflections. It is well-suited for studying the uniqueness of iris features and develops novel iris classification and indexing methods. For the experiments we used a subset composed by 3960 images from the all subjects MBGC-V (VIDEO) Multiple Biometrics Grand Challenge MBGC.v database [9]. It was collected during the spring of 008 by The Computer Vision Research Lab at the University of Notre Dame and provided 986 near infrared eye videos. All videos were acquired using an LG00 EOU iris capture system [0]. The camera uses near-infrared illumination of the eye. The iris video sequences were digitized by a DayStar XLR8 USB video digitizer attached to a Macintosh host system and stored in MPEG-4 format. The size for each frame in the video has 480 rows and 640 columns in 8 bits-grayscale space (intensity values between 0 to 55). The MBGC database presents noise factors, especially those relative to reflections, contrast, luminosity, eyelid and eyelash iris obstruction and focus characteristics. These facts make it the most appropriate for the objectives of real iris systems for uncontrolled environments. We produced our own database of 000 iris images from the MBGC iris video database v. 00 videos were randomly selected from this database. Our database contains 5% of noise Source: Image quality assessment for iris biometric [5]. 3.3 Segmentation Methods Below will be a brief description of the segmentation algorithms Viterbi-based method We use a Viterbi algorithm based iris segmentation algorithm [] to find the iris and pupil boundaries. The first step of the segmentation approach consists in a rough localization of the pupil area. First, filling the white holes removes specular reflections due to illuminators. Then, a morphological opening removes dark areas smaller than the disk-shaped structuring element. Then, the pupil area is almost the biggest dark area, and is surrounded by the iris, which is darker than the sclera and the skin. Consequently the sum of intensity values in large windows in the image is computed, and the minimum corresponds to the pupil area. The pupil being roughly located, a morphological reconstruction allows estimating a first center, which is required for exploiting the Viterbi algorithm. The second step consists in accurately extracting the pupil contour and a well 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 68

78 estimated pupil circle for normalization. Relying on the pupil center, the Viterbi algorithm is used to extract the accurate pupil contour. This accurate contour will be used to build the iris mask for recognition purposes CHT METHOD Contrast-adjusted Hough Transform (CHT), is based on a Masek [8] implementation of a Hough Transform approach using (database-specific) contrast adjustment to enhance pupillary and limbic boundaries, Canny edge detection to detect boundary curves, and enhancement techniques to remove unlikely edges WHT METHOD Weighted Adaptive Hough and Ellipsopolar Transforms (WHT) [], is the iris segmentation algorithm implemented in the USIT toolbox. This algorithm applies Gaussian weighting functions to incorporate modelspecific prior knowledge. An adaptive Hough transform is applied at multiple resolutions to estimate the approximate position of the iris center. Subsequent polar transform detects the first elliptic limbic or pupillary boundary, and an ellipsopolar transform finds the second boundary based on the outcome of the first. This way, both iris images with clear limbic (typical for visible wavelength) and with clear pupillary boundaries (typical for near infrared) can be processed in a uniform manner MHT METHOD Modified Hough Transform (MHT), uses the circular Hough transform initially employed by Wildes et al [3] combined with a Canny edge detector [4,5]. From the edge map, votes are cast in Hough space for the parameters of circles passing through each edge point. These parameters are the centre coordinates and the radius, for the iris and pupil outer boundaries. These parameters are the centre s coordinates [( ) ( )] and radious [ ], for the iris and pupil outer boundaries respectively. 4. EXPERIMENTAL RESULTS In this section we show the results obtained by the experimental design (figs. 3). The aim of this research was oriented to explore the capacity of the robust methods at level of segmentation stage for cross-sensor iris recognition in unconstrained environments to increase the recognition rates. 4. Segmentation Results In this part we discuss the results obtained by segmentation scheme using the presented above segmentation methods on images of the three analyzed iris image databases. Table shows the obtained segmentation results on the analyzed databases. The process of evaluation was manually assessed by visually comparing the segmented iris images. We considered two categories of quality for segmented images: good segmented and bad segmented images. Good segmented images contain more than 60% of the iris texture and less than 40% of eyelids or eyelashes or elements that do not belong to the eye (noise elements). Bad segmented images contain more than 40% of noise elements. As measure of segmentation performance we computed the percentage of good segmented images for each evaluated database by the equation : Where: NGSI, is the number of good segmented images in the database; NTI is the total number of images in the database. To choose the two best segmentation methods we evaluated the mean value of PGI for each segmentation method in all databases by equation 3. () (3) Table. Segmentation results, WHT: Weighted adaptive Hough transform; CHT: Contrast Adjusted Hough transform; MHT: Modified Hough transform. Viterbi WHT CHT MHT CASIA V3- Interval NGSI PGI % ,5 CASIA V4-Thousands NGSI PGI % 80,7 93,5 66, MBGC NGSI PGI % 86,8 83, 87,3 88, MS % 89, 9, 84,6 8, Source: Own elaboration from The Center of Biometrics and Security Research [9], [0]. From table it is possible to see that taking into account the mean values obtained for each segmentation method the first two best performances were obtained by Viterbi and Weighted Adaptive Hough transform. These methods obtained stable results on the three evaluated databases. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 69

79 4. Recognition Tests Results The recognition tests were conducted using the experimental design (fig. 3). The matching probes with the three databases, allowing the generation of the distributions Inter-Class and Intra-Class (Hamming distances for Clients and Impostors), to compare the performance of segmentation algorithms. We used the equal error rate (EER) and the receiver operating characteristics (ROC) curve [6]. In experiments where the results are considered in two classes (Inter-Class and Intra-Class), is rarely observed a perfect separation between the two groups. Indeed, the distribution of the test results will overlap, as shown in the following figure 5. An important evaluation of any identity verification system consists in determining the point in which the FAR (false accept rate) and FRR (false reject rate) have the same value, which is called EER, because it allows the user to determine the appropriate Th, for a given application. Figure 5. Distribution of the test results will overlap; Inter-Class and Intra-Class (Hamming distances for Clients and Impostors). *GAR is the genuine acceptation rate, (GAR=-FRR). The analysis of the distributions Inter-Class and Intra- Class for each segmentation method was compiled on table (see figures 6-8). Table reports the results of the GAR and Equal Error Rate (ERR) for each of automatic segmentation results. Under conditions of CASIA-V3- Interval and CASIA-V4-Thousands databases, the WHT segmentation method obtained the best results with GAR =93.54, 9.65%. These results suggest that WHT segmentation method is more accurate for CASIA databases conditions. For MBGC database the Viterbi segmentation method obtained the best results with GAR =96.6% at FAR 3.73%. For MBGC database the worse results performance was presented by MHT segmentation method, this algorithm had the highest equal error rate. These results suggest that Viterbi segmentation method is more accurate for MBGC databases conditions since it was taken under infrared lighting conditions similar to CASIA databases. Figure 6. The crossover point between the curves FRR and FAR. CASIA-V4-Thousands. WHT segmentation. Receiver-operating characteristic (ROC) plots: a fundamental evaluation tool in clinical medicine [6]. Table. Results in verification task. Algorithm Masek GAR* EER CASIA V3- Interval CHT WHT Viterbi MHT CASIA V4-Thousands CHT WHT Viterbi MHT MBGC CHT WHT Viterbi MHT Source: Own elaboration from The Center of Biometrics and Security Research [9], [0]. Source: Own elaboration from The Center of Biometrics and Security Research [0]. Fig. 7. The crossover point between the curves FRR and FAR. MBGC-V. Viterbi segmentation. Source: Own elaboration from The Center of Biometrics and Security Research [9], [0]. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 70

80 Fig. 8. The crossover point between the curves FRR and FAR. CASIA-V3-Interval. WHT segmentation. much the performance of the system improves with each segmentation method. Figure 9. ROC curves together with EER threshold value. CASIA-V4-Thousands. WHT segmentation. Source: Own elaboration from The Center of Biometrics and Security Research [9]. 4.. Roc Curve Analisys The ROC curve was used to obtain the optimal threshold decision. In a ROC curve the false accept rate is plotted in function of the false reject rate for different threshold points. The table 3 (see figures 9-) contains the obtained results choosing the optima s decision threshold for discrimination between classes (Intra-Class and Inter- Class) by described improvement using ROC curves; FAR, FRR and GAR. Source: Own elaboration from The Center of Biometrics and Security Research [0]. Figure 0. ROC curves together with EER threshold value. CASIA-V3- Interval. WHT segmentation. Table 3. Results in verification task using an optimal threshold. Algorithm Masek FAR FRR GAR CASIA V3- Interval CHT WHT Viterbi MHT CASIA V4-Thousands CHT WHT Viterbi MHT MBGC CHT WHT Viterbi MHT Source: Own elaboration from The Center of Biometrics and Security Research [9], [0]. These results not only indicate the performance of the compared systems, but also provide information of how Source: Own elaboration from The Center of Biometrics and Security Research [0]. Fig.. ROC curves together with EER threshold value. MBGC-V. Viterbi segmentation. Source: Own elaboration from The Center of Biometrics and Security Research [9], [0]. 5. CONCLUSIONS In this paper, we present the results of a comparative analysis of four representative iris segmentation 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

81 algorithms for iris images captured under non controlled environments; we used three non-hom*ogeneous databases with varying characteristics. The experimental results show that WHT segmentation method is more accurate databases conditions since it was taken under infrared lighting conditions, the WHT method helps to increases the recognition accuracy and adaptability to work in a less constrained environment, the ability of the system to work with non-ideal iris images has a significant importance because is a common realistic scenario. We used the ROC curves to obtain the optimal decision threshold. From the experimental results, it was concluded that WHT method was superior to the other three methods in terms of accuracy. The results obtained by this WHT method showed the lowest error rates. Future work is aimed to find a fusion algorithm of segmentation methods that leverage even more texture information present in each eye image. The best segmentation method could be integrated as an optimization to the system developed by Colores et al [7, 8], for an application of iris recognition in uncontrolled environments. 6. ACKNOWLEDGMENT This research was supported by SIP05 project grant from Instituto Politécnico Nacional from México and Iris Project grant from Advanced Technologies Application Center from Cuba. 7. SOURCES [] Cao, Y., Wang, Z., Lv, Y.: Genetic Algorithm Based Parameter Identification of Defocused Image. In: ICCCSIT 008: International Conference on Computer Science and Information Technology, pp , (008). [] Colores-Vargas, J.; García, M.; Ramírez, A.: Measurement of defocus level in iris images using convolution kernel method. Lect. Notes Comput. 656:64-70.(00) [3] Daugman, J.G.: High confidence visual recognition of persons by a test of statistical independence. IEEE Transactions on Pattern Analysis and Machine Intelligence 5(), 48 6 (993). [4] Wildes, R.: Iris Recognition: An Emerging Biometric Technology. Proceedings of the IEEE, 85-9, pp (997) [5] Nathan D. Kalka, Jinyu Zuo, Natalia A. Schmid, and Bojan Cukic, Image quality assessment for iris biometric. In SPIE 60: Biometric Technology for Human Identification III, pages 60:D D. (006). [6] Hugo Proença, Luís A. Alexandre: Iris recognition: Analysis of the error rates regarding the accuracy of the segmentation stage. Image Vision Computing. 8(): 0-06 (00) [7] Daugman, J.: The importance of being random: statistical principles of iris recognition. Pattern Recognition. 36: 79-9, (003). [8] Masek, L.: Recognition of human iris patterns for biometric identification. Technical report (003). [9] Multiple Biometric Grand Challenge, [Online]. [0] Bowyer, K.W., Hollingsworth, K., Flynn, P.J.: Image Understanding for Iris Biometrics: a Survey. Computer Vision and Image Understanding 0(), (008). [] Sutra, G., Garcia-Salicetti, S., Dorizzi, B.: The viterbi algorithm at different resolutions for enhanced iris segmentation. In: 0 5th IAPR International Conference on Biometrics (ICB), pp IEEE (0) [] Uhl, A., Wild, P.: Weighted adaptive hough and ellipsopolar transforms for realtime iris segmentation. In: 0 5th IAPR International Conference on Biometrics (ICB), pp IEEE (0) [3] R.P.Wildes,J.C.Asmuth,G.L.Green A System for Automated Recognition X/94,IEEE 994. [4] J.F.Canny, Finding edges and lines in images M.S. thesis,mass.inst.technologies,983. [5] P.V.C.Hough, Method and means for recognizing complex patterns U.S. Patent ,96. [6] Zweig, M., Campbell, G.: Receiver-operating characteristic (ROC) plots: a fundamental evaluation tool in clinical medicine. Clinical Chemistry 39: , 993. [7] Colores J. M., Garcia V. M., Ramirez A. A., Perez M. H.: Iris image evaluation for non-cooperative biometric iris recognition system. In: MICAI 0, Part II, LNAI 7095, pp , 0. [8]Colores J.M., García V. M., Ramírez A. A., Perez M. H., and Nakano M. M.: Video images fusion to improve iris recognition accuracy in unconstrained environments. In: MCPR 03. LNCS 794, pp.4-5, 03. [9]This CASIA-V3-Interval. The Center of Biometrics and Security Research, CASIA Iris Image Database, [0]This CASIA-V4-Thousands. The Center of Biometrics and Security Research, CASIA Iris Image Database, García Vázquez Mireya S. received the PhD Degree with honors in Signal and Telecommunications in 004 from the Institute of Computer Science and Random Systems Research (IRISA) Rennes, France. She realized in 005 her Post-doctoral studies in laboratory R&D PILIMTEC in incubator enterprises of the École Nationale Supérieure des Télécommunications de Bretagne (ENST Bretagne), Brest, France. She is currently Director of CITEDI, a science and technology research center belongs to the Instituto Politécnico Nacional (IPN). Garea Llano Eduardo is B.S. in Geology and Hydrogeology Engineering at Mining Institute of Saint Petersburg, Russia, in 993. He also holds the Mcs degree Geology in the same Institute in 993. He obtained the PhD degree in Technical Sciences at Polytechnic Institute of Havana in 003. At the present time he is the Head of the Pattern Recognition Department of the Advanced Technologies Application Center of Cuba. Colores Vargas Juan Miguel, PhD received the Bachelor s degree in Electronics engineering from Universidad Autónoma de Baja California, in 006 and Master s degree on Digital Systems, CITEDI, Tijuana, B.C. MEXICO, in 008. He obtained the PhD degree at 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

82 Escuela Superior de Ingeniería Mecánica Eléctrica (ESIME-IPN). Currently, he is Full Professor at the Centro de Ingeniería y Tecnología at the Universidad Autonoma de Baja California in Mexico. Zamudio Fuentes Luis Miguel, MSc received the Bachelor s degree in Computer Systems engineering from Instituto Tecnológico de Tijuana, in 007 and Master s degree on Digital Systems, at the Center for Research and Development of Digital Technology CITEDI that belongs to Instituto Politécnico Nacional, Tijuana, B.C. MEXICO, in 0. Currently, he is the Postgraduate Department Head at CITEDI that belongs to Instituto Politécnico Nacional. Ramírez Acosta Alejandro A. received the PhD Degree with honors in Electronics and Telecommunications in 000 from the École Nationale Supérieure des Télécommunications de Bretagne (ENST Bretagne) and the Université de Bretagne Occidentale (UBO), Brest, France. In 00, he obtained his Post-doctoral studies in laboratory R&D FRANCE TÉLÉCOM, Lannion, France. He work in the department of development embedded multimedia systems. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 73

83 SINCRONIZACIÓN DE MAPAS CAÓTICOS DISCRETOS UNIDIMENSIONALES EN SISTEMAS NO LINEALES ACOPLADOS Synchronization of One-Dimensional Discrete Chaotic Maps in Coupled Nonlinear Systems Abstract Conditions and characteristics of chaos synchronization by the method of coupled systems of one-dimensional chaotic maps are presented in this paper; specifically the following maps were studied: Bernoulli, Chebyshev, Congruent, Cosine, Exponent, Hopping, Logistic and Tent. The speed of synchronization was determined statistically; based on the performance of ten thousand experiments by parameter and chaotic map. As a result, based on the promptness of synchronization, the chaotic maps under study were classified according with the number of iteration performed to get it. Similarly the existence of stability in the phenomenon under study was determined, expanding the study to different map parameters under the chaotic behavior. GARCÉS GUZMÁN HÉCTOR Ingeniero en Comunicaciones y Electrónica, Ph. D. Profesor Investigador con perfil PROMEP Universidad Autónoma de Ciudad Juárez hgarces@uacj.mx FIGEROA MARTELL NOEMÍ ARACELI Ingeniero en Sistemas Digitales y Comunicaciones Universidad Autónoma de Ciudad Juárez mi.nohe.figueroa@gmail.com Keywords Chaos, Coupled-System, Synchronization.. INTRODUCTION In past decades, the advancement in information technology and telecommunications is undoubted; consequently, there is a great demand to explore new techniques and tools, one of which is chaotic signals because they feature wide bandwidth and pseudo random behavior. Although chaos is usually associated with lack of order, the unpredictable or confusion; it should be noted that chaotic signals present these conditions due to the extreme sensitivity to initial conditions. Furthermore synchronization of chaotic oscillators is a phenomenon that has been discussed in great detail both experimentally and theoretically. For example, Carroll and Pecora reported that when the Lyapunov exponent of a chaotic signal is negative, it is possible to synchronize it []. Moreover, other studies [] led to the evaluation of the threshold values which ensure synchronization. So far, two methods for synchronization have been developed for one-dimensional discrete chaotic oscillators; they are: chaos plus noise and coupled systems. This article focuses on the latter, which has the advantage of being applied to must know oscillators. The chaos plus noise method, however, can only be used to some chaotic oscillators. Also, in [3-7] some limited experiments were presented. In this article, more results will be presented. The study will increase from three to eight maps and will also include a large number of map parameters As a consequence, it was determined that statistically, the phenomenon has the same behavior when the parameters are changed into the chaotic regime.. TWO PAIRS OF ONE-DIMENSIONAL CHAOTIC MAPS An analysis of synchronization of One-Dimensional discrete time chaotic signals is considered here. Maps considered for this study are shown in Table. Specifically, for the analysis of nonlinear functions F:, the iterated map function may be written as. Map Bernoulli k F k Table. One-Dimensional chaotic maps. Definition ( ( )) ( ) ( ( )) ( ) Chebyshev ( ( )). ( ( ))/ Congruent ( ( )) > ( ) ( ) ( ) ( ) ( ) ( ) Cosine ( ( )) ( ( ) ) Exponent ( ( )) ( ). ( ( ))/ Hopping ( ( )) > ( ( ) ) ( ) ( ) ( ) ( ( ) ) ( ) Logistic ( ( )) ( )( ( ) ) Tent ( ( )) ( ) Source: Own elaboration from Multiplexing Chaotic Signals Using Synchronization []. () 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 74

84 Chaotic behavior has been observed in numerous One- Dimensional discrete time dynamical systems; in fact, Table shows the definition for the maps considered for this analysis. In addition to the mathematical relationship Table indicates the region where the map has chaotic behavior. From this group of eight maps Bernoulli stands out because it shows the chaos synchronization for two shift maps []. In fact, functions shown in Table are deterministic; however, they have chaotic characteristics. Hence, a way to observe their behavior is to vary the value of the constant parameters (A, B, etc.); thus, a bifurcation diagram is obtained. In order to guarantee chaotic response of oscillators, Table shows the specific parameter range for all the maps considered. In addition, the increment considered between ranges is also shown. Particularly for those maps that have more than one parameter, the study was performed considering the variation in only one of them. Map Table. Chaotic Regime. Chaotic Regime Analyzed Bernoulli, - Chebyshev, - Congruent, - Cosine Exponent Hopping, -, -, - Logistic, - ( ) ( ( )) [ ( ( )) ( ( )) ( ( )) ( ( ))] (4) ( ) ( ( )) [ ( ( )) ( ( )) ( ( )) ( ( ))] (5) Where ε is a coupling factor. Also it was determined that synchronization is simplified if ε = ½ []. The purpose of synchronization is that two chaotic systems, which initially evolved from different initial conditions, coupled in some way to the end follow an equal trajectory. This synchronization is obtained when one of the two systems changes the path to a different but also common path to both systems. Moreover, it can be established that the system shown in Figure is synchronized when 3. MAIN RESULTS ( ) ( ) (6) ( ) ( ) (7) One factor to evaluate the performance of chaos synchronization, as shown in Figure, is the speed to achieve it; that is, the number of iterations performed to get it, namely the synchronization index (SI). Considering the eight maps studied, the slower map is Logistics; with an SI mean value of In contrast, the faster map is Chebyshev; with an SI mean value of only Then the eight maps can be classified as follows: those that required less than 00 iterations for synchronization; they are: Chebyshev, Tent, and Exponent. Those that demand from 00 to 000 iterations: Hopping, Bernoulli and Cosine. Finally the slow maps that necessitate more than a thousand of iteration: Congruent and Logistic. Figure. Synchronization configuration for two pairs of chaotic oscillators. Master Osc (k) Slave Osc (k+) Tent, - Source: Own elaboration from Multiplexing Chaotic Signals Using Synchronization []. Next, a configuration of the synchronization system with a simple model of two system pairs of One-dimensional chaotic map is shown in Figure []. The system includes four chaotic oscillators: two master oscillators ( and ) and two slave oscillators ( and ), in the form ( ) ( ( )) () ( ) ( ( )) (3) Source: Own elaboration from Multiplexing Chaotic Signals Using Synchronization []. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 75 Master Osc + - (k) Slave Osc - + (k+)

85 Another factor studied was observing the behavior of each map during the synchronization by varying its parameters, into the chaotic regime as shown in Table. To this purpose three- dimensional graphics were generated. With this it is found a statistical stability in the phenomenon under study for the eight chaotic maps but with different parameter values. Figure 3, whereas in the rest of the diagram the behavior is stable, with no significant variation. Figure 3. Synchronization for Tent map. Table 3. Mean of Synchronization Index. Mean of Map Synchronization Index Chebyshev 7.66 Tent 6.88 Exponent Hopping Bernoulli Cosine Congruent Logistic Source: Own elaboration from Statistical Analysis of Bernoulli, Logistic and Tent Maps with Applications to Radar Signal Design [4]. In addition, Logistic map shows an unstable behavior. It can be observed on Figure that if the master and slave oscillators parameter value separation is large, then the SI is lower (less than 000). Nevertheless, if separation is short, then SI rises up to 3500, or there is not synchronization. Figure. Synchronization for Logistic map. Source: Own elaboration from Simulink Matlab. Chebyshev map displays a relatively constant behavior for the whole range of values. SI varies around 6 with increasing trends up to in the end, maintaining an average of 7.66 which places it as one of the lowest averages; therefore, this map is one of those having faster synchronization in all cases. Figure 4. Synchronization for Chebyshev map. Source: Own elaboration from Simulink Matlab. 4. CONCLUSIONS In summary, with this work, a deeper understanding of chaos synchronization of One-Dimensional discrete time signals was achieved, particularly for coupled systems. Also it extends the results previously reported in the chaos synchronization literature. Source: Own elaboration from Simulink Matlab. Moreover, three of the eight maps show similar behavior (Cosine, Tent, and Exponent) because there is no synchronization when the master and slave oscillators have the same value. This is noted on the diagonal on 5. SOURCES [] Carroll T.L, Pecora L.M., Synchronization in Chaotic Systems, Phys. Rev. Lett., vol. 64, pp 8-84, 990. [] Tsimring L.S. and Sushchik M.M., Multiplexing Chaotic Signals Using Synchronization, Phys. Lett. A, vol. 3, pp 55-66, 996 [3] Garcés H., Wideband Chaotic Signal Analysis and Processing, Ph.D. Dissertation, The University of Texas at El Paso, 007. [4] Garcés Héctor, Flores Benjamin C., Statistical Analysis of Bernoulli, Logistic and Tent Maps with 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 76

86 Applications to Radar Signal Design, Proceedings of SPIE The Int. Soc. for Opt. Eng., Defense and Security Symposium 006, Orlando FL., vol. 60, 600G, pp 5-5, ISSN X, April 006. [5] Ochoa Carrillo Rosa Isela, Garcés Guzmán Héctor, Hinostroza Zubía Victor, Mendoza Carreón Alejandra, Sincronización de señales caóticas unidimensionales por el método de sistemas acoplados, Proceedings ICSS, 3th International Congress of Electronic Engineering, Chihuahua, Chih., vol. XXXI, pp. 68-7, ISSN 405-7, Octubre 009. [6] Garcés Guzmán Héctor, Ochoa Carrillo Rosa Isela, Estudio de la sincronización de osciladores caóticos por el método de sistemas acoplados, Proceedings ICSS, 34th International Congress of Electronic Engineering, Chihuahua, Chih., vol. XXXIV, pp. 3-7, ISSN 405-7, Octubre 0. [7] Figueroa Martell Nohemí Araceli, Estudio de la sincronización de señales caóticas discretas unidimensionales, Tesis profesional, Universidad Autónoma de Ciudad Juárez, Mayo 03. Garcés Guzmán Héctor: Doctor en Filosofía (PhD) en el área de ingeniería computacional por The University of Texas at El Paso en 007. Maestro en Ciencias en el área de la ingeniería eléctrica por The University of Texas at El Paso en 00. Ingeniero en Comunicaciones y Electrónica por el Instituto Politécnico Nacional en 98. Además es perito en telecomunicaciones con autorización vigente No. 40 por el Instituto Federal de Telecomunicaciones y profesor con perfil PROMEP. Experiencia académica de más de treinta años y profesional de veinte años en la industria de las telecomunicaciones. Es autor y/o coautor de más de veinte ensayos, artículos y tesis publicados en revistas nacionales e internacionales. Interés de investigación: Señales caóticas unidimensionales en el procesamiento de imágenes de radar de alta resolución. Figueroa Martell Nohemí Araceli: Ingeniera en Sistemas Digitales y Comunicaciones por la Universidad Autónoma de Ciudad Juárez. Experiencia académica y profesional por más de cinco años en la industria maquilador 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 77

87 RADIO LINK BUDGET EVALUATION FOR UHF Abstract In this paper a program of a fading link budget is presented. The program modeled in TAP and Radiomobile is fed with geographical coordinates, transmitted power, receiver sensibility, antenna gains and free space losses, taking into account the topography and climate weather of the region, allowing observe the fading margin of system. The radio link budget calculation parameters obtained through software are transmission losses and gains, the obtained margin is +4.4dB in the worst case for an input requirement of -90 dbm. The first Fresnel zone is obtained and the trajectory profile of the trajectory is shown, illustrating the 60% clarity with the obstacle. The results obtained show a higher margin for achieving the symmetric transmission that can be improved increasing the antenna height. Keywords Azimuth, Fade Margin, Fresnel, line of Sight, Radio link, Azimuth. José Ricardo Cárdenas Valdez Centro de Investigación y Desarrollo de Tecnología Digital, Instituto Politécnico Nacional (IPN-CITEDI) jcardenas@citedi.mx José Cruz Núñez Pérez Centro de Investigación y Desarrollo de Tecnología Digital, Instituto Politécnico Nacional (IPN-CITEDI) nunez@citedi.mx Andrés Calvillo Tellez Centro de Investigación y Desarrollo de Tecnología Digital, Instituto Politécnico Nacional (IPN-CITEDI) calvillo@citedi.mx Raúl Rascón Carmona Universidad Autónoma de Baja California Campus Mexicali (UABC) raul.rascon@uabc.edu.mx. INTRODUCTION The Information Technology and Communication community attracts itshis attention, to the phenomenon of fading of the signal, and the increase of the error rate increase, mainly this is due to that has grown the number of radio communication systems is growing, and the extensive use of wireless connectivity in an urban environment. In wireless systems, fading may either be due to multipath propagation, or due to shadowing from obstacles. The presence of structures that act as been reflectors in the environment surrounding create multiple paths a under a transmitter and receiver create multiple paths. As a result, the receiver sees the superposition of multiple transmitted signals, each traversing a different path. Each signal will experience differences in attenuation, delay and phase shift,. This can result in either creating a constructive or destructive interference. Strong destructive interference is frequently referred to as a deep fade and may result in temporary failure of communication due to a severe drop in the channel signal-to-noise ratio.after a survey of the state of the art in RF radio link budgets, this paper presents all the involved calculations that allow the RF designer to quantify the effects that can affect to achieve a successful radio link. The paper concludes with a real application in the Northwest part of Mexico where the topography is extreme and the RF designer must consider it during the design, compared with a pretty similar region in Denver State, USA. The paper is organized as follows: In section, the radio parameters to calculate the radio link budget are showed. Section 3 presents the obtained results based on TAP6 Demo Version and Radiomobile Software, and finally the Section 4 shows the conclusions and recommendations to improve a radio link evaluation applied to UHF band.. RADIO LINK CALCULATIONS Firstly is defined the two point that will be linked in the paper, in this case through Radiomobile and Google Earth are obtained the latitude, longitude, height and azimuth [-]. With the geographic coordinates of the sites, calculate the average latitude (Lm), the difference of latitude (ΔLatitude) and the la difference of longitude (ΔLongitude), taken º terrestrial = Km. The distance along the path from each endpoint is [3]: The calculation can be explained as follows. Average latitude. LatA LatB Lm 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 78 () Difference of latitude. Latitude LatA LatB () Difference of longitude.

88 Longitude LongA LongB (3) Figure. Curvature of the earth, line of sight and 60% clearance of first Fresnel zone. Longitude distance between antennas. P ( Longitude )cos( Lm) (4) d Distance between antennas. P ( Latitude) (5) Lat Arc tan Long Elevation Angle.. Line of sight, fresnel zone ellipsoids Radio frequency line of sight is defined by Fresnel Zones which are ellipse shaped areas between any two radios. The primary Fresnel zone is required to be at least 60% clear of any obstruction that might cause out of phase reflections that can impact significantly degrade signal quality to ensure the highest performance of wireless link [4-8]: dd fd F 7. (7) 3 Where, F is the radius of the first Fresnel zone (m), d distance from the transmitter to the obstacle there is at.5 Km, d distance from the receptor to the obstacle is of 3.6 Km, d = d + d link distance of 5.85 Km and f is the frequency 0.9 GHz. The amount of loss depends on the amount of penetration. Profiles are often drawn with the first Fresnel zone (N=) and a ratio of 0.6 to provide a quick visual inspection of possible problems caused by obstructions penetrating that zone 0.6F = 0.6(7.5m) =6.35 m. (6).3 Fade Margin Source: Own elaboration The fade margin considers not ideal and less predictable characteristics of the propagation of radio waves. These features cause abnormal weather conditions that affect the system. The equation of fade margin is [3]: FM [ db] 30log( d) 0log( 6abf GHz Km ) 0log( W ) 70 (9) Where: d = 5.09 Km. f = 900 MHz. W = , Annual availability prediction (%). Topographic Factor: a = 4 over water or flat land. a = over normal terrain. a = 0.5 over rocky land. Climatic Factor: b = 0.5 warm and moist zone. b = 0.5 inland zone. b = 0.5 rocky and dry zone. In this case: a = /4 and b = /8 and FM=-9.53dB..4 Effective Isotropic Radiated Power (EIRP) The Effective Isotropic Radiated Power, [4]:. Curvature of the earth If the curvature of the earth is greater than 3/4 this can cause the radius deviates far from Earth. If the curvature is less than 4/3 the beam deflects toward Earth. This increase or decrease of the earth curvature handled mathematically by adding a factor K to the equation [4]: 0.078dd h[ m] (8) K Where: K =3/4, for d > 8.7 Km and, K =4/3, for d<8.7 Km. The Curvature of the earth is then h=0.63 m. PIRE P L L [ dbw ] T c LT T (0) P T = Transmitter power [dbw]. P R = Receiver Power [dbw]. P T = W = 30 dbm = 0 dbw. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 79 G The loss of the signal as it propagates in a straight line through space without any absorption or reflection of nearby objects. The expression for the path loss in free space can be denoted as follows [3-4]: FSL[ ] log( f ) 0log( d) db GHz Km ()

89 The Reception power is defined by Eq. (). P [ db] EIRP FSL R G R () The available power at the receiving antenna, which has an effective area that can be expressed as db in the Eq. (3). RSP P L L [ db] R LT c (3) The Figure 3 shows the overview with the first Fresnel zone being affected by path profile for the point to point link in Tijuana. Figure 3. Overview of the first Fresnel zone in Tijuana for a frequency of 900 MHz. The System Operating Margin (SOM) is depicted in the next Eq. (4): SOM[ db] RSL S (4) 3. RESULTS The obtained results were generated through Radiomobile Software and TAP6 Demo Version which is a terrestrial RF propagation analysis tool available in demo mode just for Denver state, USA, in this case was located a geographical location in Denver that can be compared with pretty similar region in Tijuana with almost the same environment conditions. The interpreted results are distance between point is 8. Km, Terrain elevation variation is 4 m, Losses: Free Space = 08.5 db, Obstruction = 0.4 db, Urban = 0.0 db, forest = 0.0 db, statistics = 6.4 db, total propagation loss is 5.3 db. A directional Yagi antenna is used with a gain =.3 dbd. The worst reception is 3.3 db over the required signal to meet -90 dbm defined by the sensibility receptor characteristic. The Figure shows the path profile for the point to point link in Tijuana. Figure. Path Profile for a Radio link point to point using Radiomobile in Tijuana. Source: Own elaboration The interpreted results were: Distance between point is 8. Km. Terrain elevation variation is 4 m. Losses: Free Space = 08.5dB, Obstruction = 0.4 db, Urban = 0.0 db, Forest = 0.0 db, Statistics = 6.4 db. Total propagation loss is 5.3 db. Directional Yagi antenna is used with a gain =.3 dbd. Worst reception is 3.3 db over the required signal to meet -90 dbm defined by the Sensibility Receptor characteristic. The field strength calculation provided by the TAP6 Demo Software applied for a similar region in Denver compared with Tijuana the results were: Source: Own elaboration Polarization: V. Surface Refrac: 0.00(300.90). Permittivity: 5.00 Conductivity: Climate: Continental Temperate. Confidence: Reliability: Path terrain Delta-H: 5.9 m. Effective antenna heights: 8.05 m to 5.5 m. Net received field: 7.5 dbu. Receiver Input Power: dBm. Total RX Gains: 3.9dB. Total RX Losses: 0.00dB. Margin +4.4dB a required input of dBm. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 80

90 The Figure 4 shows path profile provided by TAP6 Demo Version applied to a region in Denver. Figure 4. Path Profile and Field Strength Calculations obtained through TAP6 Demo Version. 4. CONCLUSIONS Source: Own elaboration With the help of a topographic map as the location of the points between the estimates of the link was made with these data the distance between points of view and angles are calculated in order to obtain the antennas location. Curvature of the earth, line of sight and clearance 60% of first Fresnel zone is proved; the distance and frequency of operation allow obtaining the path loss in free space. The characteristics of the area of the radio link were also determined, this is the topographic factor (hilly terrain) and weather conditions (dry weather), based on these parameters losses the fading margin is obtained, which are in the range 0 db for an annual availability of 99.98%. Corroborate results obtained are supported by Radiomobile and TAP6 Demo Version, which are attached to this report. Radio-relay systems operating in service areas where the terrain is irregular may have unsatisfactory performance, since the signal is quite affected by the atmosphere, the topography of the region, climate, the obstacles, and phenomenon of diffraction. Planning for propagation calculations, determine the efficiency of the link, in terms of selective fading margins might compensate for the losses due to the extra power requirements. The link budget calculations estimate the maximum allowed signal attenuation between the Transmitter and Receiver antennas. The maximum path loss allows the maximum range to be estimated with a suitable propagation model. REFERENCES [] Freeman, R.L., Radio System Design for Telecommunications, Wiley & Sons, 987. [] J. D. Parson, The Mobile Radio Propagation Channel, Wiley & Sons, 99. [3] J. Doble Introduction to Radio Propagation for Fixed and Mobile Artech House, 996. [4] H.L. Bertoni, et al., UHF Propagation Prediction for Wireless Personal Communications," Proceedings of the IEEE, Vol. 8, No. 9, pp , 994. [5] J.B. Andersen, T.S. Rappaport, and S. Yoshida, Propagation Measurements and Models for Wireless Communications Channels, IEEE Communications Magazine, pp. 4-49, 995. [6] W.C.Y. Lee, Mobile Communications Design Fundamentals, Second Edition, Wiley & Sons, 993. [7] CCIR (now ITU-R) Report 567-4, "Propagation data and prediction methods for the terrestrial land mobile service using the frequency range 30 MHz to 3 GHz," International Telecommunication Union, Geneva, 990. [8] CCIR Report 45, "Propagation over irregular terrain with and without vegetation," International Telecommunication Union, Geneva, 990. José Ricardo Cárdenas-Valdez: was born in Tijuana Baja California, Mexico, on October, 98. He received the Engineering degree from the Instituto Tecnologico de Tijuana (ITT) in Baja California, Mexico, in 006, and the MSc degree in Digital Systems from the Digital Technology Research and Development Center of National Polytechnic Institute (CITEDI-IPN), Mexico, in 008. He is currently working for his thesis titled Impact Analysis of Non-Linear Power Amplifier Models with memory within circuit-system simulation environment to reach his PhD degree in CITEDI-IPN. His research interest include design and modeling of digital and analog devices mainly Power Amplifier, high frequency devices and the FPGA design, Digital Predistortion and 3D modeling. José Cruz Núñez Pérez: was born in Uruapan Michoacan, Mexico, on April, 978. He received the MSc degree in electronics engineering from the National Center of Research and Technological Development (CENIDET), in Cuernavaca, Mexico, in 003, and the PhD degree from the Institut National des Sciences Appliquées de Lyon (INSA-Lyon), France, in 007. In first semester 008, he was a Research Director at Advanced Technology Research S.A. de C.V. (ATR) in Guadalajara, Mexico, where he led a team of researchers working on networking and telecommunication architectures. Since August 008, he is a Professor at Centro de Investigacion y Desarrollo de Tecnologia Digital (CITEDI-IPN), in Tijuana, Mexico. He is the Research Coordinator in Telecommunications Department at CITEDI. Andrés Calvillo Téllez: was born in Mexico City, on November 6, 964. He received his Engineering degree from the National Polytechnic Institute School of Mechanical and Electrical Engineering, Mexico City, in 99, and the MSc degree in Digital Technology Research and Development Center of National Polytechnic Institute (CITEDI-IPN) in Tijuana, Mexico, in 993. His research interest include modeling and simulation for RF propagation, RF design and system level using FPGA devices. Raúl Rascón Carmona: Electronic Engineer with MSc degree in Digital Systems from the Digital Technology Research and Development Center of National Polytechnic Institute (CITEDI-IPN), Mexico, and PhD in CICESE and Candidate in National System of Researchers since 04 in Mexico, actually is a professor in Universidad Autonoma de Baja California (UABC), Mexico 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8

91 SECCIÓN II CIENCIAS QUÍMICAS-BIOLÓGICAS 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8

92 CONDICIONES PARA LA ELIMINACIÓN DE UN TUMOR MALIGNO MEDIANTE QUIMIOTERAPIA Resumen En este documento se estudia la dinámica global de un Sistema de Quimioterapia presentado por de Pillis et al. en 007. Este modelo matemático describe la interacción entre células cancerosas, células inmuno-efectoras, linfocitos circundantes y el tratamiento de quimioterapia. Mediante la aplicación del método de Localización de Conjuntos Compactos Invariantes se determinan límites ínfimos y supremos para las tres poblaciones de células. Adicionalmente, se define un dominio acotado en en el cual se localizan todos los conjuntos compactos invariantes del sistema y se presentan condiciones bajo las cuales dicho dominio es atractivo y positivamente invariante. Aplicando el método de localización, la teoría de estabilidad de Lyapunov y el Teorema de LaSalle se establecen condiciones suficientes para la eliminación del tumor y para demostrar estabilidad asintótica global del punto de equilibrio libre de tumor. Finalmente, se realizan simulaciones numéricas con el fin de ilustrar los resultados obtenidos. Palabras claves Cáncer, Conjunto compacto invariante, Estabilidad asintótica global, Quimioterapia. PAUL ANTONIO VALLE TRUJILLO, Ingeniero en electrónica M.C Profesor investigador CITEDI-IPN pvallet00@alumno.ipn.mx CORINA PLATA ANTE, Ingeniero en electrónica M.C Profesor investigador CITEDI-IPN cplata00@alumno.ipn.mx KONSTANTIN E. STARKOV Candidato de Ciencia Ph, D. Profesor Investigador Centro de Investigación y Desarrollo de Tecnología Digital-IPN kstarkov@ipn.mx LUIS NÉSTOR CORIA DE LOS RÍOS, Ingeniero en electrónica Dr. Profesor investigador Instituto Tecnológico de Tijuana luis.coria@gmail.com. INTRODUCCIÓN El cáncer es considerado una de las principales causas de enfermedad y muerte en el mundo, el término es utilizado para definir un grupo de más de 00 padecimientos que pueden afectar a una persona en alguna parte del cuerpo y se caracteriza por un crecimiento anormal de células que han perdido la capacidad de regular su tiempo de vida, este fenómeno les permite crecer más allá de sus límites habituales e invadir tejidos y órganos circundantes, los cuales forman nuevos focos cancerosos conocidos como tumores malignos. El proceso en el que las células cancerosas se diseminan a través del cuerpo se conoce como metástasis y representa la principal causa de muerte por esta enfermedad []. De acuerdo con la Organización Mundial de la Salud [] y GLOBOCAN [3], en el año 0 se estima que murieron 8. millones de personas en el mundo a causa de algún tipo de cáncer, siendo los canceres de pulmón, hígado, estomago, colorrectal y de mama los que causan mayor cantidad de muertes cada año. Aunque México tiene la tasa de mortalidad más baja en América Latina, el cáncer representa la tercera causa de muerte en el país, en el 0 el.07% del total de defunciones fueron a causa de algún tumor maligno [4,5]. Con el propósito de comprender la compleja dinámica del cáncer los biólogos y matemáticos han recurrido al modelizado matemático como una herramienta para obtener información acerca de la relación entre el crecimiento tumoral, el sistema inmunológico y los efectos producidos por la aplicación de tratamientos como la quimioterapia y la inmunoterapia. La Localización de Conjuntos Compactos Invariantes (LCCI) es un método que permite analizar la dinámica global de modelos matemáticos de ecuaciones diferenciales ordinarias de primer orden. El método fue propuesto por Krishchenko en [6] y optimizado por Krishchenko y Starkov en [7] y ha sido utilizado recientemente para el análisis de sistemas biológicos [8-5]. El objetivo principal de utilizar el método de LCCI es definir un dominio en el cual se localizan todos los conjuntos compactos invariantes de un sistema específico, los límites del dominio se expresan mediante desigualdades en función de los parámetros del sistema. La localización de dichos conjuntos es importante para el análisis de sistemas biológicos que describen la evolución de un tumor maligno, ya que éstos proporcionan información sobre la carga tumoral en un sitio específico del cuerpo, la eficacia del sistema 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 83

93 inmunológico para combatir el tumor y la eficiencia de los tratamientos aplicados. La contribución principal de esta investigación es el estudio de varias características correspondientes a la dinámica global de un modelo matemático de quimioterapia, cuya descripción se presenta en la sección. Principalmente, se determinan límites ínfimos y supremos para las tres poblaciones de células, se demuestra la existencia de un dominio acotado positivamente invariante y se establecen condiciones suficientes para la eliminación del tumor y la estabilidad asintótica global del punto de equilibrio libre de tumor. El análisis se realiza utilizando el método de LCCI, el segundo método de Lyapunov y el principio de invariancia de LaSalle. El trabajo se organiza como se describe a continuación: en la sección se describe el modelo matemático de quimioterapia, en la sección 3 se presenta la teoría correspondiente al método de LCCI, en la sección 4 se calculan los límites de un dominio en el cual se localizan todos los conjuntos compactos invariantes del Sistema de Quimioterapia, en la sección 5 se demuestra la existencia de un dominio acotado positivamente invariante, en la sección 6 se establecen condiciones suficientes para la eliminación del tumor y para la estabilidad asintótica global del punto de equilibrio libre de tumor, en la sección 7 se ilustran los resultados obtenidos mediante simulaciones numéricas y en la sección 8 se presentan las conclusiones de la investigación.. MODELO DE QUIMIOTERAPIA En esta sección se presenta el estudio de la dinámica global para el Sistema de Quimioterapia presentado por de Pillis et al. en [6]. Este modelo matemático describe los efectos de la quimioterapia en las células cancerosas y el sistema inmunológico mediante las siguientes ecuaciones diferenciales: efectoras y por la quimioterapia, como se muestra en el tercer y cuarto término respectivamente. La ecuación ( ) modela la población de células inmuno-efectoras. El término representa una fuente constante de células efectoras, mientras que el segundo determina el reclutamiento de éstas por parte del tumor mediante la cinética de Michaelis-Menten con una saturación máxima dada por. Las células efectoras tienen una muerte natural a una tasa, son inactivadas por las células cancerosas y eliminadas por la quimioterapia como lo muestran el cuarto y quinto término. La ecuación ( ) modela la población de linfocitos circundantes. El término representa una fuente constante de linfocitos los cuales tienen una muerte natural con una tasa dada por. El tercer término representa la eliminación de linfocitos por la quimioterapia. La ecuación ( ) modela la dinámica de la concentración de quimioterapia. El primer término representa la tasa de decaimiento del tratamiento dada por. El segundo término proporciona una aplicación constante de quimioterapia. Adicionalmente, se puede observar que esta droga afecta las tres poblaciones de células a diferentes tasas dadas por los parámetros, y. La descripción y estimación de los parámetros fue realizada por de Pillis et al. en [6] y se muestran en la Tabla. Tabla. Descripción, valores y unidades de los parámetros. Parámetr o Descripción Valores y unidades Tasa de crecimiento del tumor ¹ días ¹ es la capacidad tumoral máxima.0 0 ¹ ⁴ células ¹ () () (3) ( ) (4) De acuerdo con de Pillis et al., la dinámica de cada ecuación es la siguiente: La ecuación ( ) modela la población de células tumorales. Los primeros dos términos definen el crecimiento del tumor en forma logística con un tasa intrínseca dada por y una capacidad de carga en ausencia de las células efectoras y la quimioterapia. Una fracción de células cancerosas es eliminada por células Fracción de células tumorales eliminadas por las células efectoras Tasa de muerte de las células efectoras Tasa máxima de reclutamiento de células efectoras por el tumor Saturación media del término de reclutamiento de células efectoras Fracción de linfocitos circundantes eliminados por la quimioterapia ¹ ⁰ células ¹ días ¹ 4. 0 ² días ¹.50 0 ² días ¹.0 0¹ células² ¹ días ¹ 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 84

94 Fracción de células efectoras eliminadas por la quimioterapia Fracción de células tumorales eliminadas por la quimioterapia Tasa de inactivación de células efectoras por el tumor Fuente constante de células efectoras Fuente constante de linfocitos circundantes Tasa de muerte de los linfocitos circundantes Tasa de decaimiento de la quimioterapia Concentración de quimioterapia ¹ días ¹ ¹ días ¹.00 0 ¹ ¹ células ¹ días ¹.0 0⁴ células días ¹ ⁸ células dıas ¹.0 0 ² días ¹ ¹ días ¹ 0 Fuente: de Pillis L, Gu W, Fister K, Head T, Maples K, Murugan A, et al. Chemotherapy for tumors: An analysis of the dynamics and a study of quadratic and linear optimal controls. Math Biosci 007;09: La dinámica del sistema se encuentra localizada en el ortante no negativo: * + y todos los parámetros del sistema son positivos con excepción del tratamiento de quimioterapia que se encuentra definido en el intervalo cerrado, PRELIMINARES MATEMÁTICOS El método de Localización de Conjuntos Compactos Invariantes (LCCI) se utiliza para determinar un dominio en en el cual se localizan todos los conjuntos compactos invariantes que se presentan bajo ciertas condiciones en un sistema específico, estos conjuntos pueden ser: órbitas periódicas, hom*oclínicas y heteroclínicas, ciclos límite, puntos de equilibrio y atractores caóticos. La importancia del método radica en que el análisis es útil para conocer la dinámica del sistema a largo plazo. Su característica principal consiste en que es un método estrictamente analítico, lo que implica la solución del problema sin la necesidad de realizar la integración numérica del sistema de ecuaciones diferenciales. A continuación se describirán los teoremas, notaciones y definiciones básicas utilizadas. Considere un sistema no lineal de la forma: ( ) (5) donde es una función vectorial continua para un y es el vector de estados. Sea ( ), la cual es llamada función localizadora y no es la primera integral de (5), entonces, por se denota la restricción de a un conjunto. Por ( ) se denota el conjunto { ( ) }, donde es la derivada Lie de (5) y está dada por: ( ) ( ). Además se define * ( ) ( )+; * ( ) ( )+ A continuación se definirán el Teorema General de LCCI, una Proposición de No Existencia de conjuntos compactos invariantes y el Teorema Iterativo. Teorema 3.. Vea [6,7]. Cada conjunto compacto invariante de (5) está contenido en el conjunto de localización ( ) * ( ) +. Si se considera la localización de todos los conjuntos compactos invariantes dentro del dominio se tiene el conjunto de localización ( ), con ( ) definida en el Teorema 3.. Suponga que todos los conjuntos compactos invariantes correspondientes a (5) están localizados en dos conjuntos cualesquiera llamados: y, donde, entonces también estarán localizados en el conjunto. Ahora, si se desea determinar la localización de todos los conjuntos compactos invariantes en algún subconjunto del espacio de estados. Se formula la siguiente: Proposición 3.. Vea [6,7]. Si ( ) entonces el sistema (5) no tiene conjuntos compactos invariantes localizados en. Un refinamiento del conjunto de localización ( ) puede realizarse con el uso del teorema iterativo que dice: Teorema 3.. Vea [6,7]. Sea ( ) una secuencia de funciones de clase infinitamente diferenciable. Los conjuntos con ( ) { ( ) } ( ) ( ) ( ) ( ) Contienen cualquier conjunto compacto invariante del sistema (5) y 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 85

95 4. LOCALIZACIÓN DE CONJUNTOS COMPACTOS INVARIANTES En esta sección se presentan los resultados correspondientes a los límites de un dominio que contiene todos los conjuntos compactos invariantes del Sistema de Quimioterapia ()-(4). Los límites del dominio se expresan mediante desigualdades en función de los parámetros del sistema y proporcionan información sobre la densidad de las poblaciones de células y la concentración de quimioterapia a largo plazo. Los límites del dominio se obtuvieron al integrar la ecuación diferencial con la condición inicial ( ), el resultado obtenido se muestra a continuación ( ) ( ) 5. DOMINIO ACOTADO POSITIVAMENTE INVARIANTE En esta sección se proporcionan condiciones bajo las cuales el dominio acotado es atractivo y positivamente invariante en para el sistema de Quimioterapia ()-(4). Estos resultados se obtienen mediante una función candidata de Lyapunov la cual está dada por una combinación de términos lineales, tal como se muestra a continuación al calcular su derivada se obtiene lo siguiente ( * ( ) y al aplicar tres funciones localizadoras dadas por con las cuales al realizar los cálculos correspondientes, y si las siguientes condiciones se cumplen se establece lo siguiente (6) (7) (8) Teorema 4.. Si la condiciones (6)-(8) se cumplen, todos los conjuntos compactos invariantes del Sistema de Quimioterapia ()-(4) se encuentran localizados dentro del dominio donde con ( ) ( ) ( ) * + ( ) * + ( ) * + ( ) * + donde Ahora, se impone la siguiente condición en los parámetros del sistema y se define el dominio * + en, donde. De acuerdo al Teorema de LaSalle al establecer que implica que todas las trayectorias en entran en el dominio y permanecen en él. Esto significa que para cada solución ( ) su conjunto límite (( ) ) es no vacío, compacto e invariante, vea Perko [7] en 3. y Khalil [8] en 4.. Entonces, (( ) ) (9) Por lo tanto, de acuerdo a los resultados mostrados en esta sección se establece lo siguiente Teorema 5.. Si la condiciones (6)-(9) se cumplen, el Sistema de Quimioterapia ()-(4) tiene un atractor global en, i.e. todas las trayectorias fuera del conjunto, se dirigirán eventualmente hacia este dominio acotado positivamente invariante y permanecerán dentro del mismo. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 86

96 6. ESTABILIDAD ASINTÓTICA GLOBAL DEL PUNTO DE EQUILIBRIO LIBRE DE TUMOR En esta sección se determinan condiciones suficientes para la eliminación del tumor y para demostrar estabilidad asintótica global en del punto de equilibrio libre de tumor. La eliminación del tumor se puede demostrar al determinar atractividad del plano, para realizar esto se toma la siguiente función candidata de Lyapunov cuya derivada está dada por ( ) Por lo tanto se define el dominio * + en, y se calcula al tomar los límites mínimos de las variables correspondientes, i.e., y como se presenta a continuación ( ) (0) Si se considera (0) en términos de la concentración de quimioterapia ( ) se obtiene la siguiente desigualdad donde () Teorema 6.. Si la condición () se cumple, entonces el plano es globalmente atractivo en. Esto implica la eliminación del tumor para el Sistema de Quimioterapia ()-(4). Ahora se demuestra que el punto de equilibrio libre de tumor (vea [6]), dado por ( ) ( * (3) es global asintóticamente estable en y por lo tanto el conjunto compacto invariante más grande dentro del dominio. Primero, se toma, se sustituye en el modelo ()-(4) y se obtiene un sistema de tres ecuaciones diferenciales, el cual tiene un único punto de equilibrio dado por ( ) ( * (4) Con el propósito de analizar la estabilidad global de (4), se traslada el punto hacia el origen mediante un cambio de variable y se obtiene el siguiente modelo ( ) ( ) (5) (6) (7) Entonces, se toma la función candidata de Lyapunov ( ) ( ) y se calcula su derivada como se indica a continuación Al tomar en cuenta los valores numéricos de los parámetros y las restricciones matemáticas que implica el sistema biológico, se determina la siguiente solución de (): ( * () Lo anterior significa que es una condición suficiente para la eliminación del tumor. Por lo tanto si () se cumple, por el principio de invariancia de LaSalle se concluye que la trayectoria de ( ) se dirigirá hacia el conjunto compacto invariante más grande dentro del dominio * +, vea Perko [7] en 3. y Khalil [8] en 4.. Entonces, (( ) ) * + y se establece lo siguiente ( ) ( ) ( ) Dado que esto significa que el punto de equilibrio (4) es global asintóticamente estable. Este resultado permite concluir que una vez que la trayectoria de la población de células cancerosas ( ), entra en el plano, entonces las trayectorias de ( ), ( ) y ( ) se dirigen hacia el punto de equilibrio libre de tumor. Por lo tanto se establece lo siguiente Teorema 6.. Si las condiciones (6)-(9) y () se cumplen, entonces el punto de equilibrio libre de tumor (3) del Sistema de Quimioterapia ()-(4) es global asintóticamente estable en. 7. SIMULACIONES NUMÉRICAS Con el fin de ilustrar los resultados obtenidos es necesario definir un valor para la concentración del tratamiento de quimioterapia ( ) que pueda satisfacer todas las condiciones necesarias para establecer 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 87

97 estabilidad asintótica global del punto de equilibrio libre de tumor (3). Tal como se muestra en la sección 6, el valor de depende directamente de los parámetros del sistema y el valor del tratamiento debe cumplir con la condición, por lo tanto se toma el valor con el objetivo de cumplir la condición (), las condiciones (6)-(9) se cumplen de acuerdo a los valores de la Tabla. De esta forma se puede mostrar que todas las trayectorias del Sistema de Quimioterapia ()-(4) se dirigen hacia el punto de equilibrio libre de tumor (3). Tal como se muestra en la Fig.,,3,4. Figura 3. Estabilidad asintótica global. Al tomar el valor, para el cual se cumple la condición (), es decir, se observa que todas las trayectorias convergen hacia del punto de equilibrio libre de tumor (3), el cual se encuentra contenido dentro del dominio. Figura. Estabilidad asintótica global. Al tomar el valor, para el cual se cumple la condición (), es decir, se observa que todas las trayectorias convergen hacia del punto de equilibrio libre de tumor (3), el cual se encuentra contenido dentro del dominio. Fuente: Ruddon RW. Cancer biology. Oxford University 007 Figura 4. Estabilidad asintótica global. Al tomar el valor, para el cual se cumple la condición (), es decir, se observa que todas las trayectorias convergen hacia del punto de equilibrio libre de tumor (3), el cual se encuentra contenido dentro del Fuente: Ruddon RW. Cancer biology. Oxford University Press; 007. Figura. Estabilidad asintótica global. Al tomar el valor, para el cual se cumple la condición (), es decir, se observa que todas las trayectorias convergen hacia del punto de equilibrio libre de tumor (3), el cual se encuentra contenido dentro del dominio. Fuente: Ruddon RW. Cancer biology. Oxford University 007. dominio. Fuente: Ruddon RW. Cancer biology. Oxford University Press; 007 La simulación es realizada con las condiciones iniciales propuestas por de Pillis et al. en [6] y están dadas por: ( ), ( ) y ( ) ⁰, para el tratamiento de quimioterapia se utiliza la condición inicial ( ) con el propósito de satisfacer la condición () de los Teoremas 6. y al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 88

98 8. CONCLUSIONES Este trabajo se enfoca en el estudio de la dinámica global de un modelo matemático que describe la interacción entre la quimioterapia, células cancerosas y el sistema inmune. La característica principal del modelo es que toma en consideración los efectos secundarios producidos por la quimioterapia en linfocitos circundantes y células efectoras mediante los parámetros y respectivamente, lo cual continúa siendo un problema abierto en pacientes enfermos de cáncer tratados con esta droga [9]. La contribución principal de este trabajo es la base teórica de una metodología para determinar el valor mínimo en que el tratamiento de quimioterapia pueda eliminar la población del tumor descrita por el sistema ()-(4). Cabe destacar que no se pretenden considerar los aspectos médicos que conlleva la aplicación de quimioterapia a largo plazo en la salud de un paciente, solamente se analiza el problema de la eliminación del tumor desde el punto de vista del modelo matemático bajo estudio. Utilizando el método de LCCI en unión con el segundo método de Lyapunov y el principio de invariancia de LaSalle se establecen las condiciones (6)-(9) y () para asegurar la eliminación del tumor y para demostrar estabilidad asintótica global del punto de equilibrio libre de tumor (3) del Sistema de Quimioterapia ()-(4). Dichas condiciones se expresan como desigualdades en función de los parámetros del sistema. La condición () se impone sobre el tratamiento de quimioterapia, se encuentra dada por, y es necesaria para cumplir los Teoremas 6. y 6.. Adicionalmente, si se cumplen las condiciones del Teorema 5. se determina que el sistema es disipativo en el sentido de Levinson. Los resultados mostrados en esta investigación difieren de otros en términos de la cantidad de la dosis de quimioterapia y su período de aplicación. Los autores de [6] proponen la administración de una dosis alta de quimioterapia durante unos cuantos días. En este trabajo se propone una forma alternativa de eliminar asintóticamente la población de células tumorales mediante la aplicación de una dosis pequeña y constante de tratamiento de quimioterapia durante un período largo de tiempo. Se espera que los resultados mostrados en esta investigación sean de utilidad para comprender los efectos de la quimioterapia en el desarrollo tumoral presentado por el Sistema de Quimioterapia ()-(4). 9. AGRADECIMIENTOS Este trabajo está soportado por la beca CONACYT 90733, y se realizó dentro del marco del proyecto CONACYT N 964 "Análisis de sistemas con dinámica compleja en las áreas de medicina matemática y física utilizando los métodos de localización de conjuntos compactos invariantes". 0. REFERENCIAS [] Ruddon RW. Cancer biology. Oxford University Press; 007. [] World Health Organization: Cancer. Disponible en: [3] International Agency for Research on Cancer: GLOBOCAN 0. Disponible en: [4] Instituto Nacional de Estadística y Geografía: Estadísticas a propósito del día mundial contra el cáncer. Disponible en: [5] Subsecretaría de Prevención y Promoción de la Salud: Los 5 tipos de cáncer que más afectan a mexicanos. Disponible en: [6] Krishchenko A. Localization of invariant compact sets of dynamical systems. Diff Equat+ 005;4: [7] Krishchenko AP, Starkov KE. Localization of compact invariant sets of the Lorenz system. Phys Lett A 006;353: [8] Coria LN. Global dynamics of the Hastings-Powell system. Math Probl Eng 03;03. [9] Starkov KE, Coria LN. Global dynamics of the Kirschner--Panetta model for the tumor immunotherapy. Nonlinear Anal-Real 0;4: [0] Starkov KE, Gamboa D. Localization of compact invariant sets and global stability in analysis of one tumor growth model. Math Method Appl Sci 04;37: , DOI: 0.00/mma.303. [] Starkov KE, Krishchenko AP. On the global dynamics of one cancer tumour growth model. Commun Nonlinear Sci 04;9: [] Starkov KE, Plata-Ante C. On the global dynamics of the cancer aids-related mathematical model. Kybernetika 04;50: [3] Starkov KE, Pogromsky AY. On the global dynamics of the Owen--Sherratt model describing the tumor--macrophage interactions. Int J Bifurcat Chaos 03;3. [4] Starkov KE, Villegas A. On some dynamical properties of a seven-dimensional cancer model with immunotherapy. Int J Bifurcat Chaos 04;4. [5] Valle PA, Coria LN, Starkov KE. Estudio de la dinámica global para un modelo de evasión--inmune de un tumor cancerígeno. Computación y Sistemas 04;8: , DOI: /CyS [6] de Pillis L, Gu W, Fister K, Head T, Maples K, Murugan A, et al. Chemotherapy for tumors: An analysis of the dynamics and a study of quadratic and linear optimal controls. Math Biosci 007;09: [7] Perko L. Differential equations and dynamical systems. 3rd ed. Springer; 00. [8] Khalil HK. Nonlinear Systems Vol. 3. Prentice Hall Upper Saddle River; 00. [9] Perry MC. The Chemotherapy Source Book. Lippincott Williams and Wilkins; al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 89

99 ESTUDIO DE LA DINÁMICA GLOBAL DE UN SISTEMA BIOLÓGICO MULTIDEMSIONAL DE CRECIMIENTO DE TUMOR DE CÁNCER Resumen En este artículo se estudian algunas características de comportamiento global de un modelo de crecimiento de cáncer de leucemia multidimensional descrito por DePillis y Radunskaya en 03. Se encontraron cotas superiores para las variables en cuestión como también se encontraron sus cotas inferiores. Además, se mostro que el sistema es disipativo. Por último se demostró estabilidad local. Palabras clave conjuntos compactos invariantes, estabilidad, localización ANTONIO VILLEGAS ORTÍZ CITEDI-IPN avillegaso00@alumno.ipn.mx avillegas@citedi.mx KONSTANTIN E. STARKOV CITEDI-IPN konst@citedi.mx DIANA GAMBOA LOAIZA CITEDI-IPN gamboa@citedi.mx. INTRODUCCIÓN Cuando hablamos de cáncer, normalmente pensamos en un grupo de padecimientos con una característica en común, la cual es, un crecimiento desordenado de células que invaden diferentes tejidos u órganos. Un aspecto importante de las defensas corporales contra las células tumorales es la inmunoterapia. En los últimos años muchos investigadores se han concentrado en la elaboración y análisis de modelos dinámicos no espaciales los cuales describen las interacciones entre las células tumorales y el sistema inmune de un paciente tratado con inmunoterapia, ver []. Por ejemplo, estos tipos de modelos matemáticos como los propuestos en los artículos [-9] son considerados en muchos artículos. La importancia de este tipo de análisis está conectado a un entendimiento más profundo de la mecánica del cáncer como enfermedad basado en métodos eficientes de cálculo tales como la validación de modelos matemáticos de crecimiento de tumor en presencia de la inmunoterapia en comparación con observaciones clínicas o experimentales; se puede también enfocar a la predicción de su dinámica a largo plazo de las población celular involucrada en el modelo. Los resultados de este análisis pueden ser aplicados para la optimización de los tratamientos de inmunoterapia existentes. También los parámetros constantes involucrados en los modelos de cáncer con inmunoterapia pueden ser considerados como constantes de control influenciando en la dinámica a mediano y a largo plazo, ver por ejemplo [-5]. L. DePillis y A. Radunskaya [0] han desarrollado un modelo matemático el cual describe la evolución de un tipo de leucemia linfocitica crónica (B-CLL) dentro del cuerpo, el cual crea una alerta del sistema inmune del paciente y atrae las concentraciones de células asesinas naturales (NK) y las células T. Este modelo está definido por un sistema de 4 ecuaciones diferenciales ordinarias. En este trabajo se investiga algunas propiedades dinámicas globales del modelo multidimensional de leucemia linfocitica crónica [0] con ayuda del método de localización de extrema de los conjuntos compactos invariantes, ver por ejemplo []. También se menciona que el método de localización de los conjuntos compactos invariantes como parte del estudio de la dinámica global de la evolución del cáncer ha aparecido reciente mente en la literatura, ver [-3]. Es de interés la identificación de esos factores, que pueden maximizar o minimizar los valores de las cotas o limites superiores o inferiores de las poblaciones celulares obtenidas del modelo propuesto en [0].. preliminares matemáticos En esta sección se presentan algunas afirmaciones de utilidad con respecto al problema de localización de todos los conjuntos compactos invariantes, véase por ejemplo []. En primer lugar consideremos un sistema no lineal x Fx, () Donde n, F x F x F T,, n x 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 90 x n campo vectorial diferenciable. Sea hx C es un una función tal que h no es la primera integral del sistema (). La función h se utiliza para la solución del problema de localización de los conjuntos compactos invariantes y es llamada función localizadora. Por h denotamos la restricción de h en un conjunto U n U

100 Por S h denotamos el conjunto x n x L h 0 Lie con respecto a F. F, donde hx L F es la derivada Supongamos que estamos interesados en la localización de todos los conjuntos compactos invariantes situados en el conjunto U. h h inf sup U : inf h x xu Sh ; U : sup hx xu Sh. todos los conjuntos compactos invariantes del sistema () localizado en U están contenidos en el conjunto n Afirmación. Para cualquier hx C K U; h definido por la formula también. U hx h U x U h inf sup Afirmación. Sea x, m,, n de funciones de C h m una secuencia. Los conjuntos K Kh, K K,, m m Km m m con K h h m, m m,sup m,inf S S hm hm x : h sup K inf K m,inf m m h m h x ; h x. m m x h m,sup Contiene a todos los conjuntos compactos invariantes del sistema () y Abajo por K K K ; m. 4 4,0 denotamos el cierre de. Cualquiera de los conjuntos U h K ; es llamado un conjunto de localización. Dado que el dominio 4 biológicamente factible es todos nuestros objetos (trayectorias, conjuntos, etc.) que aparecen abajo se consideran sólo en 4,0. Como método de simplicidad K h. : K 4 ; h de notación, se escribirá 4. modelo matemático descrito en [0] Los autores del artículo [0] han derivado el siguiente sistema de ecuaciones diferenciales ordinario describiendo la interacción entre varias poblaciones de células: 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9 x x x 3 x 4 b b 3 b 4 r d d b d x 3 d 4 x x 3 4 c x c c 3 x 4 s x x x x ; x x c 4. 3 x x3x k 4 s x x ; x Para este sistema utilizamos la siguiente notación: 3 x 4 ; () x : Son las células B de leucemia linfocítica crónica (B- CLL); x : Son las células asesinas naturales (NK); x 3 : Es la población de los linfocitos T cito-tóxicos (CD8 + T), los cuales atacan a las células tumorales. x : Es la población de células T ayudantes (CD4 + T). 4 Los parámetros en () se supone que son positivos. Los describimos en términos de parámetros biológicos iniciales del articulo [0]: b, b, b 3 y b 4 representa una fuente constante de células B-CLL, NK, CD8 + T y r d describe el cambio CD4 + T respectivamente; dependiente de la densidad de la población de leucemia, debido a la división y la muerte de las mismas; c, c3es la pérdida de células de leucemia debido a las interacciones con las células NK y CD8 + T respectivamente; d, d 3 y d4 tasa de mortalidad, proporcional a la población existente de células NK, CD8 + T y CD4 + T; c, c3términos de acción de masas que representa la inactivación de células NK y CD8 + T a k través de la interacción con las células B-CLL; 4 tasa de reclutamiento de células T, es una fracción k de las nuevas células ayudantes CD4 + T activas. En [0] se ha realizado la simulación numérica y una interpretación biológica de los resultados para los valores de los parámetros b 89, b d c, c.0076, d , b.059, d 4, c , b , d.06807, c 0.4;.00; , r.46%, s 0, k.6, dominio compacto de localización ;

101 Con el fin de derivar un conjunto de localización compacto en la forma de un polítopo, vamos a explotar las siguientes funciones localizadoras. En primer lugar, se aplicara la siguiente función h x x x x localizadora 3 4, ahora se calcula su derivada Lie L h x x x F d 3 L h b b F 4 x 3 d 4 x 4 k x. 4 3 ; b3 b4 d rx dx c c x x c c x s x x 4 d r 3 3 x x Ahora suponiendo que y trabajando sobre el conjunto S h podemos obtener la siguiente desigualdad b b d r x d x 3 4 d b b 4 3 x 3 d 4 x k x 4 4 x s x Adicionalmente, se puede probar que el termino racional x s x tendrá su dinámica únicamente en el rango [ 0,), haciendo uso de esta información, el termino racional será realmente lineal con una tasa de población de células CD4 + T máxima de 4 k x 4. Ahora se propone la siguiente condición d k (3) 4 4 Teorema. Asumiendo que la condición (3) se mantiene, sea d k A, entonces todos los conjuntos : 4 4 compactos invariantes del sistema () se encuentran dentro del siguiente polítopo d r x d x d x Ax b b b b4 Lo que arroja las siguientes cotas superiores para todas las concentraciones del sistema () x x x x max max 3 max 4 max b b b3 b4 d r b b b3 b4 d; b b b3 b4 d3; b b b b A. 3 4 ; 3 Ahora, con el fin de encontrar todos los límites conservativos en función de los parámetros del sistema, se calcularan las cotas inferiores para todas las densidades en cuestión. En el caso de la población mínima de células B-CLL, se aplicara la función localizadora h x, ahora se calcula su derivada Lie L L F F h h x ; b d rx cxx c3xx3 h Trabajando sobre el conjunto siguiente desigualdad 0 b x d cx c3x3 r S podemos obtener la Al despejar las células B-CLL tendremos la siguiente ecuación x d c b x c 3 x r 3 Tenemos la presencia de las células NK y las células CD8 + T en el denominador, haciendo uso de la 4 Afirmación Sh Kh, tendremos lo siguiente x d c x max b c 3 x 3max r Al sustituir por sus máximas densidades se obtiene lo siguiente x d d d 3 b d d 3 cd3 c3d b b b3 b4 rdd3 En el caso de la población mínima de células NK, se aplicara la función localizadora, ahora se calcula su derivada Lie L L F F h h 3 x ; 3 b d x c x x h 3 x S h podemos Trabajando sobre el conjunto 4 obtener la siguiente desigualdad 0 b x d c x 3 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9

102 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 93 Al despejar x tendremos la siguiente ecuación x c d b x Haciendo uso de la Afirmación 4 3 h K h S, tendremos lo siguiente max x c d b x Al sustituir las células B-CLL por su máxima densidad se obtiene lo siguiente 4 3 b b b b c r d d r d b x Ahora se obtendrá el límite inferior para las células CD4 + T. En este caso se aplicara la función localizadora 4 x 4 h. Por lo que el conjunto 4 4 h S está dado por la siguiente igualdad x s x d x b Al despejar 4 x tendremos lo siguiente x x s d x s b x Haciendo uso de la Afirmación 4 4 h K h K h S, se tiene lo siguiente min 4 max 4 min 4 4 x x s d x s b x Para el caso de las células CD8 + T. En este caso se aplica la función localizadora 3 5 x h. Por lo que el conjunto 4 5 h S está dado por la siguiente igualdad x x s x k x x c d b Al despejar 3 x tendremos lo siguiente x c d x s x x k x s b x Haciendo uso de la Afirmación h K h K h K h S, se tiene lo siguiente max 3 3 max 4min min 4 min 3 4 x c d x s x x k x s b x Esto es posible debido a que disminuimos el numerador y maximizamos el denominador, por lo que seguimos cumpliendo la condición. Teorema. Asumiendo la condición (3) se mantiene, entonces todos los conjuntos compactos invariantes en 4 están contenidos el conjunto compacto invariante y disipativo h K h K h K h K h K K BPID.4 análisis de los puntos de equilibrio A fin de encontrar los puntos de equilibrio del sistema () se analizara la siguiente ecuación. 0 ; 0 ; 0 ; x x s x x d b x x s x k x x c x d b x x c x d b x x c x x c x d r b De lo que se deriva la siguiente expresión * 4 * 4 * 4 * * 3 * * / / x x s d x s b x c d x B c x c d b x eq

103 * Donde la expresión x y B están dadas por los siguientes valores de los parámetros del sistema () x * a x * b 3 4 0; c B : b B : d d r * * * d c x x b c r d d c x 4 B : c 3 cb c3 b3c3 dd3 rd3 d4b3c 3 dd3 bc 3 rd3 d b c rd d d 4 B : B c 3 4 B B Si y solo si se cumple la siguiente condición c 4 d d r 0 c3 4 4 kb c Esto con el fin de no indeterminar el punto de equilibrio y no hacerlo factible en términos físicos-biológicos, sustituyendo por los valores de los parámetros se tiene que análisis de estabilidad local La matriz Jacobiana del sistema () evaluada en el punto de equilibrio eq b d b d b d T 0, /, /, 4 4 queda de la siguiente forma cb r d c3b d d J cb / d c3b d 0 Sus respectivos eigenvalores son dd d3, d4, d, 0 d b c d bd c d d 4 rd Para establecer estabilidad local del punto de equilibrio tenemos que cumplir la siguiente condición d d bc bd c3 rd Al hacer uso de los valores del sistema se tiene por lo cual podemos establecer estabilidad en el punto de equilibrio. CONCLUSIONES eq. La principal aportación de este trabajo es mostrar como el método de localización de los conjuntos compactos invariantes funciona en modelos multidimensionales. Aquí se investigaron varias propiedades de la dinámica a largo plazo del modelo de crecimiento de cáncer de leucemia creado por [0]. Se derivaron los limites superiores a largo plazo para todos los componentes del vector de estados del modelo (); se encontraron las formulas explicitas para los limites conservativos a largo plazo de todas las variables en cuestión; además, se mostró que bajo cierta condición (3) el modelo () es disipativo, por lo que toda trayectoria que entre en el polígono definido en el Teorema, se quedara dentro de él para todo tiempo positivo. Por último se demostró estabilidad en una vecindad del punto de equilibrio 3. REFERENCIAS eq. [] R. Eftimie, J. L. Bramson and D. J. D. Earn, Interactions between the immune system and cancer: a brief review of non-spatial mathematical models, Bulletin of Mathematical Biology. Vol. 73. Pp [] J. Arciero, T. Jackson and D. Krischner, A mathematical model of tumor-immune evasion and sirna treatment, Discrete Continuos Dynamical System Series B. Vol. 4. pp [3] S. Bunimovich- Mendrazitsky, E. Shochat and L. Stone, Mathematical model of BCG immunotherapy in superficial bladder cancer, Bulletin of Mathematical Biology. Vol. 69. Pp [4] L. depillis and A. Radunskaya, The dynamics of the optimally controlled tumor model: a case study, Math. Comput. Model. Vol. 37. pp [5] D. Krischner and J. Panetta, Modeling immunotherapy of the tumor- immune interaction, Journal of Mathematical Biology. Vol. 37. pp [6] A. d Onofrio, A general framework for modeling tumor-immune system competition and immunotherapy: Mathematical analysis and biomedical inferences, Physica D. Vol. 08. pp [7] V. A. Kuznetsov, I. A. Makalkin, M. A. Taylor and A. S. Perelson, Nonlinear dynamics of immunogenic tumors: Parameter estimation and global bifurcation analysis, Bulletin of Mathematical Biology. Vol. 56. Pp al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 94

104 [8] F. Nani and H. I. Freedman, A mathematical model of cancer treatment by immunotherapy, Mathematical Biosciences. Vol. 63. pp [9] M. R. Owen and J. A. Sherratt, Modeling the macrophage invasion of tumors: Effects on growth and composition, IMA Journal of Mathematics Applied in Medicine and Biology. Vol. 5. pp [0] L. depillis and A. Radunskaya, B cell chronic lymphocytic leukemia a model with immune response, Discrete & Continuos Dynamical System. Series B, Vol. 8. No [] A. P. Krishchenko and K. E. Starkov, Localization of compact invariant sets of the Lorenz system, Physics Letters A. Vol pp [] K. E. Starkov and L. Coria, Global dynamics of the Kirschner-Panetta model for the tumor immunotherapy, Nonlinear Analysis: Real World Applications. Vol. 4. pp [3] K. E. Starkov and A. Pogromsky, Global dynamics of the Owen-Sherratt model describing the tumormacrophage interactions, International Journal of Bifurcation and Chaos. Vol. 5.No (9 pages). 03. Antonio Villegas Ortiz: Ingeniero en sistemas computacionales con estudios de Maestría en Ciencias por el Centro de Investigación CITEDI-IPN de Baja California. Estudiante de Doctorado en sistemas digitales en el área de control en CITEDI-IPN. Diana Gamboa Loaiza: Ingeniera Electrónica con estudios de Maestría en Ciencias por el Centro de Investigación CITEDI-IPN de Baja California. Estudiante de Doctorado en sistemas digitales en el área de control en CITEDI-IPN. Konstantin E. Starkov: Doctor investigador (SIN III) en el centro de investigación CITEDI-IPN, forma parte de la Planta de Profesores del Programa Institucional del Maestría y Doctorado en ciencias en sistemas digitales del CITEDI-IPN. Actualmente, es director del proyecto SIP al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 95

105 ANÁLISIS MATEMÁTICO NO LINEAL DE UN MODELO DE CRECIMIENTO TUMORAL CANCEROSO CON Y SIN TRATAMIENTO BCG Resumen En este trabajo se estudia un modelo de cáncer de vejiga de cuatro dimensiones con inmunoterapia Bacillus Calmette-Guérin (BCG). El modelo presenta un crecimiento exponencial de células cancerosas el cual las células efectoras por sí mismas no pueden contrarrestar la proliferación. El parámetro de tratamiento b es un parámetro de control constante el cual acorde a la clasificación de tumor maligno (TNM) puede erradicar al tumor canceroso en la etapa Tis y T. La contribución principal de este trabajo es el análisis matemático considerando los casos b=0 y b>0. Aplicando el método de localización de los conjuntos compactos invariantes se determina las cotas superiores que define la dinámica máxima de todo el vector de estado en el ortante positivo, asumiendo que todas las variables se encuentran en el ortante positivo. Además, se demuestra la existencia de un dominio acotado positivamente invariante para ambos casos. Algunas implicaciones biológicas derivadas del análisis matemático son presentadas en las conclusiones. Palabras clave Bacillus Calmette-Guérin (BCG), Conjuntos compactos, Sistema ODE Biológico. GAMBOA LOAIZA DIANA Ingeniero Electrónico, M. Estudiante de doctorado en sistemas digitales en el área de control CITEDI - Instituto Politécnico Nacional gamboa@citedi.mx STARKOV KONSTANTIN Investigador (SNI III), Dr. Integrante de la Planta de Profesores del Programa Institucional de Maestría y Doctorado en Ciencias en Sistemas Digitales CITEDI - Instituto Politécnico Nacional konst@citedi.mx VILLEGAS ORTIZ ANTONIO Ingeniero en Sistemas Computacionales, M. Estudiante de doctorado en sistemas digitales en el área de control CITEDI - Instituto Politécnico Nacional villegas@citedi.mx. INTRODUCCIÓN El Cáncer de vejiga es un tema el cual se encuentra bajo continua investigación, el hecho de poder erradicarlo con una inmunoterapia la cual no fue diseñada para eliminarlo es de continuo interés en la comunidad científica [-]. Un estudio reciente ha determinado que la principal causa de aparición es debida por fumar y se aprecia mayormente en mujeres latinas en Estados Unidos, [3]. En México se reporta un total de 54 casos en 0, [4]. El Cáncer de Vejiga tiene su origen en la cavidad interna, en la primera capa muscular. Acorde a la clasificación TNM (Tumor, Ganglio Linfático, Metástasis o por sus siglas en ingles Tumor, Lymph node, Metástasis) se denomina Tumor Insito (Tis) en sus primeras etapas. Clínicamente se ha demostrado que el tratamiento más efectivo para la erradicación o latencia después de una cirugía es la inmunoterapia Bacillus Calmette-Guerin (BCG). Esta inmunoterapia refuerza al sistema inmune para que pueda contrarrestar el crecimiento descontrolado de las células tumorosas, [5-6]. El aspecto peligroso se este tipo de cáncer en la detección inoportuna, puesto que puede ser eliminado mediante cirugía y en combinación con la inmunoterapia BCG se puede llegar a garantizar una mejor calidad de vida, sin embargo, el tratamiento que se aplica fue diseñado para proporcionar inmunidad contra la tuberculosis [7]. Este modelo fue presentado por Bunimovich-Mendrazitsky en 007, [8] el cual muestra un modelo matemático no lineal representado mediante ecuaciones diferenciales ordinarias con cuatro variables de estado y lo define para dos tipos de crecimientos de células tumorales en presencia de un tratamiento, en este caso BCG. Dado que es el primer modelo matemático no lineal, se ha buscado analizar la relación entre el sistema inmune-tumor-tratamiento, mediante el método indirecto de Lyapunov en un punto de equilibrio y consideración del tratamiento como función Delta dirac cuando el crecimiento de células tumorosas es exponencial [9], así como analizar el modelo en presencia de dos tratamientos en el caso de crecimiento logístico [0] y mediante experimentos verificar los valores numéricos de los parámetros que se están considerando en el modelo []. Una estrategia matemática para analizar estos tipos de modelos es mediante LCCI (Localización Conjuntos Compactos Invariantes) el cual define una región la cual mediante el uso de funciones continuamente diferenciales que involucran variables del propio sistema, acotan dicha región en un dominio invariante y este a su vez contiene toda la dinámica del sistema(atractores caóticos, puntos de equilibrio, orbitas hom*oclínicas, entre otros) el cual es un conjunto de elementos propios que nunca sobrepasan las condiciones de suprema e ínfimo derivados de las funciones diferenciales propuestas. Este método ha demostrado que mediante desigualdades se representa al parámetro del tratamiento en función del resto de los parámetros principales del modelo matemático, así como determinar si la región el cual contiene todos los conjuntos compactos invariantes tiene un punto de equilibrio libre de tumor atractivo,[]. El método fue presentado por K. Starkov, A. Krishchenko [3]. En el trabajo de investigación [4], se analiza 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 96

106 matemáticamente al modelo para el caso de crecimiento logístico, el cual se concluye que el parámetro del tratamiento bajo ciertas desigualdades puede erradicar el tumor mediante la utilización de funciones localizadoras. También se demuestra que el sistema tiene un punto de equilibrio libre de tumor y que es además asintóticamente estable dentro de un dominio positivamente invariante. En este trabajo de investigación se analiza el modelo para el caso de crecimiento exponencial, siendo un trabajo continuo de investigaciones previas [4-8]. La importancia de analizar matemáticamente este caso nace de la proliferación tumoral inmediata a corto plazo. Matemáticamente se busca definir mediante desigualdades, la densidad máximas (supremos) de cada variable para definir el conjunto K BPID (dominio que contiene a todos los conjuntos compactos invariantes y dicha región de localización es invariante y positivamente acotada). En este trabajo de investigación se presenta una breve descripción del modelo ODE así como algunos preliminares matemáticos que sostienen la teoría de LCCI, el desarrollo matemático de LCCI para los casos donde se administra el tratamiento (b>0) y cuando no omite (b=0), también se define la región BPID definida por resultados obtenidos de LCCI en presencia del tratamiento y por último se presentan conclusiones.. MODELO MATEMÁTICO El modelo matemático que se analiza fue presentado por Bunimovich-Mendrazitsky en 007, [8]. Mostrándose a continuación: x x( p y p w) b 3 y y( p x p z) z 4 5 z p yz p xw w p xw rw Donde la variable x(t) representa el tratamiento BCG, y(t) representa el conjunto de células efectoras, z(t) son las células tumorosas infectadas por el tratamiento BCG y w(t) es la proliferación de las células tumorosas sin infectar por BCG. El parámetro b representa a la constante de tratamiento. Los parámetros presentados en () son descritos en la Tabla. Tabla. Descripción Parámetros del Sistema. Razón de pérdida al interactuar BCG con elementos del sistema inmune Razón de infección de las células tumorales por BCG Razón constante de BCG introducido en la () 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 97 vejiga Tasa de mortalidad de las células efectoras. Parámetro de activación de la respuesta inmune como resultado del encuentro con BCG Tasa de inactivación de las células efectoras en presencia de las células infectadas por BCG. Tasa de estimulación por parte de las células tumorales para reclutar células efectoras de la medula ósea. Tasa de eliminación de las células efectoras a las células tumorosas infectadas por BCG Tasa de crecimiento tumoral Fuente: Mathematical model of bcg immunotherapy in superficial bladder cancer [8]. La primera ecuación del sistema () se describe la relación entre el tratamiento BCG con el sistema inmune y con las células tumorosas siendo el parámetro b una dosificación. El signo negativo implica competencia por supervivencia de los recursos. La segunda ecuación del sistema () describe como el sistema inmune no puede contrarrestar la proliferación de las células tumorosas z pero al mismo tiempo el sistema inmune se fortalece por el tratamiento 4 p xy. En la tercera ecuación describe la eliminación de las células tumorales por el sistema inmune a una tasa p3 y al mismo tiempo, el tratamiento infecta a las células tumorales convirtiéndose en objetivos de eliminación por el sistema inmune. La ultima ecuación describe al tratamiento y la relación entre el tratamiento BCG infectando a las células tumorosas. Recibe el término de crecimiento exponencial ya que cuando se resuelve la ecuación diferencial de primer orden, su solución está en función del exponente.. Preliminares Matemáticos Considérese el sistema no lineal expresado: x F( x) () n T Donde xr, F( x) F( F ( x),..., Fn ( x)) es un n campo vectorial diferenciable. Sea h( x) C R ser una función tal que h no es la primera integral de (), es decir, que su primera derivada sea distinta de cero. La función h es llamada función localizadora y está formada por las variables del sistema. Esta función es

107 propuesta y su objetivo es definir los supremos de cada una de las variables mediante desigualdades. Por Sh ( ) n se denota el conjuntox R L h( x) 0, donde L h( x) es la derivada Lie con respecto F. F Supongamos que estamos interesados en la localización de todos los conjuntos compactos invariantes ubicados en el conjunto U. Por lo tanto, se define: inf sup F h ( U) : inf h( x) x U S( h) ; h ( U) : sup h( x) x U S( h) ; n Proposición, [3]: Para cualquier h( x) C ( R ) todos los conjuntos compactos invariantes del sistema () localizados en U están contenidos en el conjunto K( U; h) definido por la formula: Por igual. xu h ( U) h ( U) inf Teorema, [3]: Sea hm ( x), m,,... Sea una n secuencia de funciones de C ( R ). Conjuntos: Con: sup K K, K K K, m, h m m m, m K x : h h ( x) h m, m m,inf m m,sup h sup m,sup h m( x ), S hm Km h inf m,inf h m( x ), S hm Km Contienen todos los conjuntos compactos invariantes de K K K sistema () y m 3. DESARROLLO MATEMÁTICO En esta etapa se busca definir el dominio mediante el uso de las funciones localizadoras. 3. LCCI con Tratamiento b>0. KBPID En esta etapa se muestra las funciones localizadoras propuestas para definir el dominio compacto positivamente invariante. Paso : Se propone la función localizadora h x, y se 4 obtiene S h R x p y pxw b x p y p xw b R 4 x b R 4. ( ) ; Por lo tanto se obtiene el conjunto de localización: K ( h ) : x x : b max Paso : Se propone una función localizadora en función de dos variables h x w, y se obtiene: p x S( h ) R x w xy x b R r r Entonces: 4 4 p x b r r r 4 4 x w xy x b R x w R Para encontrar el supremo de la variable w, se toma el supremo del valor de x. K ( h ) : w w : b( r ) r max Paso 3: Se propone la función localizadora h3 y z,y sea su conjunto Sh ( 3) definido: p4 p5p3 p xw S( h3 ) y z xy yz Ahora, se tiene un ínfimo: p xw S( h ) R y z R En caso de satisfacerse la desigualdad: p p 3 5 Sea entonces el conjunto localizador: (3) p x w K ( h ) : y z max max al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 98

108 Paso 4: Se propone la función localizadora h4 Sh ( ) su conjunto 4 definido: z S( h ) K ( h ) p yz p xw K ( h ) pb ( r ) p3 z z p xw r Aplicando el Teorema, se llega al supremo de z: S( h ) K K K 4 3,y sea pb ( r ) p3 z z p xmaxwmax 0 r Resolviendo la ecuación cuadrática mediante el uso de la formula general se obtiene z max : pb ( r ) b A K4( h4 ) : z zmax : r r p3 A p p b ( r ) 4 p ( r ) r 3 3 Paso 5: Se propone la función localizadora p h5 x y,y sea su conjunto Sh ( 5) definido: p 4 p pp 5 p S( h5) x y b pxw yz z p4 p4 p4 Entonces: 4 S( h5 ) R x y b z p4 p4 Y tomando el conjunto K4( h4) se tiene: max p p p p p x y b z ( ) y (4) p p p. Por lo tanto: p p 4 y b zmax p p4 p : p p 0 Y por consecuente: 0 x x b zmax; p4 4 y b zmax p p4 max p h5sup h5 b zmax ( ) p4 Entonces el conjunto compacto se define como: p 4 p K5( h5 ) : y ymax : b zmax ( ) p p4 Si,. Teorema 3: El sistema () tiene todos sus conjuntos compactos invariantes es: K : K ( h ) BPID j;;3;4;5 j j 3. LCCI Con Tratamiento b=0. La inmunoterapia BCG es un parámetro clave para la erradicación del tumor en sus primeras etapas de aparición así como el prevenir nuevamente su aparición después de haber sido removido mediante cirugía. El analizar el modelo matemáticamente y no tener la variable de estado de la inmunoterapia hace que el sistema () se vea reducido a solo tres ecuaciones: y y( p z) z z p yz 3 w rw 5 (5) Si entonces el término que está a la izquierda de la ecuación (4) es supremo de la función. De esta ecuación se pasa a obtener el supremo para y, pero primero se define el dominio: p. x b zmax p4 Biológicamente, el conjunto de células efectoras por sí mismas no pueden erradicar o controlar el crecimiento proliferado de las células tumorosas, y al mismo tiempo, al reclutar células en la medula ósea, estas no pueden eliminarlos. Los conjuntos compactos invariantes que solo tendría es el punto de equilibrio que se encuentra en el origen. Al estudiar su único punto de equilibrio para saber si es localmente asintóticamente estable mediante 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 99

109 el método indirecto de Lyapunov de determina que es inestable. Ahora, supóngase que se determina el K BPID del sistema (5) mediante funciones localizadoras, el punto de equilibrio no representa un punto de equilibrio libre de tumor y aunque se termine que el dominio encontrado es positivamente invariante, biológicamente, en un determinado tiempo, el incremento de células tumorales conlleva a metástasis. 3.3 Existencia del Dominio Positivamente Invariante (BPID). Este análisis solo se presenta para el caso b>0 debido a que se ha demostrado que se tiene un dominio de localización positivamente invariante y que además contiene al punto de equilibrio libre de tumor (b,0,0,0) el cual utilizando el método indirecto de Lyapunov este punto de equilibrio es localmente estable, [8]. Definiendo el conjunto de localización K BPID se puede demostrar que el conjunto localizado es un dominio invariante positivamente acotado ( BPID ) en R 4 x,0 w 0. Teorema 4: El sistema () considerado en R 4 x,0 w 0 acotado. es un dominio invariante positivamente Demostración: Se propone la siguiente función; V xw xdy xz qx (6) Donde el parámetro q es positivo. Luego se tiene: L V p w w( r ) p y y( ) f qx z( ) yw( p p ) yz( p p p ) p wz qp xw Si se satisface la condición: 3 5 q p p (7) 4 (8) ( r ) ( ) ; ( r ) ( ) G p w p y p p qx z( ); B Donde: En: Y: 4p 4p R G 0 4,0 w 0 4,0 G (0) R w 0 Es un punto. Denotando ahora al conjunto: 4,0 U : ( x, y, z, w) R w 0 L V ( x, y, z, w) 0 4,0 ( x, y, z, w) R w 0 G ( x, y, z, w) B. Por lo tanto, en el conjunto CU R 4 w f,0 0 se tiene que LV f 0 y además el conjunto 4,0 0 U R w es un dominio acotado en 4 R,0. Esto implica que eventualmente todas las trayectorias en R 4,0 w 0 entran en U R 4,0 w 0 y permanecen en ella. Esto concluye la demostración. Analizando determinadamente el Teorema 4, se obtiene T que para cada punto ( x, y, z, w) R 4 w 0 su,0 conjunto de omega límite (,,, ) T w x y z w no está vacío, implicando que es un conjunto compacto invariante: Llegando a la conclusión: w ( x, y, z, w) T KBPID Corolario 5: El conjunto localizado 4. CONCLUSIONES KBPID es BPID. Sea G el polinomio obtenido de la derivada LVal f remover todos los términos cuadráticos yw, yz, wz, xw. Ahora el polinomio G es expresado como G B, donde: En este trabajo de investigación se concluye que se logra definir el conjunto K y definir que el conjunto 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 00 BPID localizado es BPID. Biológicamente implica que todas las trayectorias que entran a dicho conjunto permanecerán en él para todo tiempo t>0.

110 En la práctica, las células tumorosas con crecimiento exponencial no cuentan con la alimentación ni el espacio para que continúen con su proliferación, entonces el crecimiento exponencial infinito es imposible, por lo tanto es un caso hipotético matemático el que se analiza en este trabajo, pero, durante las primeras etapas de crecimiento, cuando la demanda de alimento es pequeño el crecimiento puede ser exponencial. Los límites superiores que matemáticamente se han encontrado, representan los límites máximos de concentración en las poblaciones biológicas, describiendo su dinámica a largo plazo. 4. REFERENCIAS [] L. Lipworth, R.E Tarone and J.K McLaughlin. The epidemiology of renal cell carcinoma. Journal of Urology, vol. 76, pp, , 006. [] S.M Mangsbo, S Broos,E. Fletcher, N. Veitonmaki, C. Furebring, E. Dahlen, P. Norlen, M. Lindstedt, T.H. Totterman and P.Ellmark. The human agonistic CD40 antibody ADC-03 eradicates bladder tumors and generates T cell dependent tumor immunity, Publicado en linea a principios de Octubre 4, 04; doi: 0.58/ CCR [3] American Cancer Society: Cancer Facts & Figures for Hispanics/Latinos Atlanta, Ga: American Cancer Society. [En línea]. Disponible en: ysurveilance/documents/document/acspc pdf [4] INEGI. Estadística de Salud en Establecimientos Particulares 0.0. [En línea]. Disponible en: ma.aspx?s=est&c=895 [5] Instituto Nacional del Cáncer de los Institutos Nacionales de la Salud de EE.UU., Cáncer de vejiga: Tratamientos.,(04). [En línea].disponible en: tient/page [6] American Cancer Society, Terapia intravesical para el cáncer de vejiga,(04). [En línea]. Disponible en: adetallada/cancer-de-vejigatreating-intravesicaltherapy, 04. [7] M.G. Edgar, C.-D. Vıctor, and P.-R. Alejandro, Experiencia en el manejo del cáncer de vejiga con cistectomía radical, Elsevier, Revista Mexicana de Urología, vol. 73, no. 0, pp. 4 8,Enero-Febrero 03. [8] S. Bunimovich-Mendrazitsky, E. Shochat, and L. Stone, Mathematical model of bcg immunotherapy in superficial bladder cancer, Bulletin of Mathematical Biology, vol. 69, no. 6, pp , 007. [9] S.Bunimovich-Mendrazitsky, H. Byrne, and L. Stone, Mathematical model of pulsed immunotherapy for superficial bladder cancer, Bulletin of Mathematical Biology, pp , 008. [0] S. Bunimovich-Mendrazitsky, J. Claude Gluckman, and J. Chaskalovic, A mathematical model of combined bacillus calmette-guerin (bcg) and interleukin (il)- immunotherapy of superficial bladder cancer, Journal of Theoretical Biology, vol. 68, no., pp. 7 40, 0. [] R. Breban, A. Bisiaux, C. Biot, C. A. Rentsch, P. Bousso, and M. L. Albert, Mathematical model of tumor immunotherapy for bladder carcinoma identifies the limitations of the innate immune response, OncoImmunology, vol., no., pp. 9 7, 0. [] K. Starkov and L.N Coria. Global dynamics of the Kirschner-Panetta model for the tumor immunotherapy. Nonlinear Analysis: Real World Applications 03; 4: DOI: 0.06/j.nonrwa [3] AP.Krishchenko and K. Starkov. Localization of compact invariant sets of the Lorenz system. Physics Letters A 006; 353: DOI:0.06/j.physleta [4] K. Starkov, A. Krishchenko, and D. Gamboa, On the global dynamics of one class of tumor growth models with mmunotherapy. in Book of Abstracts. Novi Sad, Serbia: 84th Annual Meeting of the International Association of Applied Mathematics and Mechanics., March [5] K. Starkov, A. Krishchenko, and D. Gamboa, On the global of two tumor growth models with immunotherapy. in Book of Abstracts. Barcelona, Spain: Workshop on Emergence,Spread and control of Infectious Diseases., June 0-03, p. 6. [6] K. Starkov, A. Krishchenko, D. Gamboa, and A. Villegas, Dynamical analysis of two models of cancer tumor growth with immunotherapy. in Book of Abstracts, Nizhni Novgorod, Russia, July -5 03, p. 06. [7] D. Gamboa and K. Starkov, Análisis de dinámica para un sistema no lineal que describe al cáncer de vejiga con inmunoterapia bcg. in Book of Abstracts. Ensenada, B.C: Congreso Nacional de Control Automático (AMCA), Oct 03. [8] K. Starkov and D. Gamboa, Localization of compact invariant sets and global stability in analysis of one tumor growth model, Mathematical Methods in the Applied Sciences, vol. DOI:0.00/mma.303, 03. Diana Gamboa Loaiza: Ingeniero Electrónico con estudios de Maestría en Ciencias por el Centro de Investigación CITEDI-IPN de Baja California. Estudiante de Doctorado en sistemas digitales en el área de control en CITEDI-IPN. Konstantin E. Starkov: Doctor investigador (SIN III) en el centro de investigación CITEDI-IPN, forma parte de la Planta de Profesores del Programa Institucional del Maestría y Doctorado en ciencias en sistemas digitales del CITEDI-IPN. Actualmente, es director del proyecto SIP Antonio Villegas Ortiz: Ingeniero en sistemas computacionales con estudios de Maestría en Ciencias por el Centro de Investigación CITEDI-IPN de Baja California. Estudiante de Doctorado en sistemas digitales en el área de control en CITEDI-IPN 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

111 ESTUDIO DE LA DINÁMICA GLOBAL DE ALGUNOS MODELOS MATEMÁTICOS QUE REPRESENTAN UN TUMOR DURMIENTE Resumen En este artículo se estudia la dinámica global de tres modelos que presentan el efecto de latencia tumoral los cuales fueron desarrollados por K.M. Page y J.W. Uhr en 005. La diferencia entre el primer y segundo modelo se encuentra en la generación de anticuerpos, que se efectúa como consecuencia de su interacción con las células cancerosas y por la estimulación constante propia del organismo, respectivamente. El tercer sistema representa el efecto de inmunización como resultado de la vacunación para inducir un tumor durmiente. La dinámica de estos tres modelos se estudia mediante el método de Localización de Conjuntos Compactos Invariantes. Se obtienen cotas ínfimas y supremas para las variables de estado que conforman los tres modelos: densidad de células tumorales proliferantes, células tumorales que se encuentran en reposo y la concentración de anticuerpos. Adicionalmente, para el primer y tercer modelo, se aplica la teoría de estabilidad de LaSalle donde se propone una función candidata de Lyapunov con el fin de comprobar la existencia de un Dominio Acotado Positivamente Invariante y obtener las condiciones suficientes bajo las cuales las trayectorias van hacia un dominio acotado y permanecen ahí. Finalmente, los resultados en cada uno de los sistemas se ilustran mediante de simulaciones numéricas. Palabras claves Cáncer durmiente, Conjuntos compactos invariantes, Dominio acotado positivamente invariante, Lyapunov. CORINA PLATA ANTE Ingeniero en Electrónica M.C Profesor Investigador Centro de Investigación y Desarrollo de Tecnología Digital-IPN cplataa00@alumno.ipn.mx PAUL ANTONIO VALLE TRUJILLO Ingeniero en Electrónica M.C Profesor Investigador Centro de Investigación y Desarrollo de Tecnología Digital-IPN pvallet00@alumno.ipn.mx KONSTANTIN E. STARKOV Candidato de Ciencia Ph, D. Profesor Investigador Centro de Investigación y Desarrollo de Tecnología Digital-IPN kstarkov@ipn.mx LUIS N. CORIA DE LOS RÍOS Ingeniero en Electrónica Dr. Profesor Investigador Instituto Tecnológico de Tijuana luis.coria@gmail.com. INTRODUCCIÓN En este artículo se estudia la dinámica de una población de células malignas y anticuerpos, las cuales presentan el fenómeno de tumor durmiente a mediano y largo plazo. La latencia tumoral puede ser generada como resultado de la respuesta del sistema inmune ante la presencia de células cancerosas, o incluso como producto de la aplicación de tratamiento como quimioterapia o radioterapia [], [], [3]. En estos casos la carga tumoral decrece hasta llegar a una pequeña densidad de células cancerosas y su presencia en el organismo persiste por un tiempo prolongado sin llegar a ser letal. Esta característica permite que el cáncer esté presente como una condición crónica con el fin de extender el tiempo del vida del paciente [4], [5]. En la literatura se encuentran diversos modelos que describen el efecto de latencia tumoral como resultado de diferentes situaciones [4]. En este trabajo se analizan tres modelos en los cuales se deriva latencia tumoral ante la respuesta del sistema inmune y células cancerosas. Los sistemas fueron propuestos por K.M. Page y J.W. Uhr en 005 [6] y muestra la interacción entre células de cáncer en reposo, células de cáncer proliferantes y anticuerpos. En el Sistema uno y dos, los anticuerpos son capaces de prevenir el crecimiento tumoral infinito. En el Sistema tres se incluye un parámetro que representa estimulación inmune debido a la aplicación de una vacuna. El método de Localización de conjuntos Compactos Invariantes (LCCI) se emplea para encontrar las cotas conforme el tiempo aumenta (superiores e inferiores) expresadas en función de los parámetros incluidos en los modelos de tumor durmiente con la finalidad de determinar los límites de las dinámicas. Este método fue propuesto en [7] por Krishchenko, después en colaboración con Starkov se han estudiado modelos dinámicos de diferentes áreas como física, química y biología [8]-[3]. Actualmente, el método LCCI ha sido utilizado para estudiar la dinámica global de varios sistemas biológicos que describen el crecimiento tumoral [4], [5]-[8]. Adicionalmente se encuentran las condiciones de existencia de un Dominio Positivamente Invariante (DAPI). Esto implica que todas las trayectorias en el dominio positivo entraran al conjunto compacto más grande y permanecerán ahí.. Sistema Uno La dinámica de este sistema se describe por las siguientes características: el crecimiento de las células cancerosas 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

112 Congreso Internacional de Investigación Tijuana. Revista Aristas: Investigación Básica y Aplicada. ISSN , Vol. 4, Núm. 7. Año 05. en reposo ( ) se deriva por la detención de ciclo que generan los anticuerpos a las células cancerosas proliferantes ( ), además de la detención de ciclo que se lleva a cabo de manera natural en ausencia de los anticuerpos ( ). La disminución de la densidad de las células en reposo ocurre cuando los anticuerpos les inducen su apoptosis ( ) y por su muerte natural ( ). El aumento de la densidad de las células cancerosas proliferantes ( ) depende de la relación entre su propio crecimiento menos la muerte natural de las mismas ( ), y por su eliminación o transición al estado en reposo como consecuencia de su interacción con anticuerpos ( ). Finalmente la generación de anticuerpos ( ) depende en la estimulación inmune ( ) producida por las células cancerosas en reposo y proliferantes, respectivamente ( ); y decrece por el decaimiento natural ( ). Las ecuaciones diferenciales son () () logística (. /) y por su eliminación o transición al estado en reposo debido a los anticuerpos ( ). En cuanto al aumento de anticuerpos ( ), este depende de la estimulación inmune ( ) producida por las células cancerosas y su concentración disminuirá por el decaimiento natural ( ). Las ecuaciones diferenciales son (3) ( ) La tasa de decaimiento de los anticuerpos está dado por, y el término representa la tasa de producción de anticuerpos como resultado de la interacción con las células proliferantes. El parámetro tiene un valor pequeño debido a que la cinética del crecimiento tumoral ocurre más rápido que la respuesta del tumor [6].. Sistema Dos ( ) En la Tabla se muestra la descripción de los parámetros involucrados en los tres sistemas de tumor durmiente. Respecto a este sistema las células cancerosas, en reposo ( ) y proliferantes ( ) tienen el mismo comportamiento del Sistema uno (), la diferencia es la tercera ecuación que representa la concentración de anticuerpos ( ). Ahora la producción de esta población celular depende de la estimulación de las células malignas ( ). Su disminución es consecuencia de la apoptosis o detención de ciclo por las células malignas proliferantes ( ), por la interacción con las células en reposo ( ) y por el decaimiento natural ( ). Las ecuaciones del modelo son las siguientes.3 Sistema Tres () Este sistema modela la aplicación de una vacuna en el organismo. La dinámica se describe como se menciona a continuación: el crecimiento de las células en reposo ( ) está dado por el efecto de iniciación de detención de ciclo producido por los anticuerpos ( ) y por la detención de ciclo natural en ausencia de los anticuerpos ( ). La reducción de células en reposo se lleva a cabo por la apoptosis generada por los anticuerpos ( ) y por su muerte natural ( ). El aumento en la densidad de células proliferantes ( ) está determinado por una ecuación Tabla. Parámetros de los Sistemas de tumor durmiente Parámetro Descripción Detención de ciclo inducida por los anticuerpos Apoptosis inducida por los anticuerpos a células proliferantes Apoptosis inducida por los anticuerpos a células en reposo Decaimiento de los anticuerpos Capacidad de carga de las células malignas Estimulación inmune de las células malignas Muerte natural de las células en reposo Iniciación de detención de ciclo en ausencia de anticuerpos Replicación de células proliferantes menos la muerte natural de las mismas Fuente: N. Müller-Hermelink, H. Braumüller, B. Pichler, T. Wieder, et al., TNFR signaling and IFN- signaling determine whether T cells induce tumor dormancy or promote multistage carcinogenesis, Cancer Cell, Vol. 3, pp , June 008. Con la finalidad de simplificar el análisis se utilizaron las siguientes notaciones 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 03 (4)

113 Como se presenta en [6], se asume que siempre se cumple como una condición del crecimiento tumoral. Adicionalmente, las dinámicas de los sistemas ()-(3) están ubicadas en el octante positivo * +.. PRELIMIRES MATMATICOS Y NOTACIONES El método de Localización de Conjuntos Compactos Invariantes se utiliza para determinar un dominio en el espacio de estado donde están localizados todos los conjuntos compactos invariantes. Estos conjuntos compactos invariantes se pueden encontrar bajo ciertas condiciones en cualquier modelo matemático y pueden ser puntos de equilibrio, órbitas periódicas/ hom*oclínicas/ heteroclínicas, atractores caóticos, etc. Se considera el sistema no lineal de la forma: ( ) donde es un campo vectorial - diferenciable y es el vector de estado. Considere que ( ) es una función - diferenciable; y por se toma como restricción de en el conjunto. La función se utilizada en este enunciado es llamada función localizadora y se supone que no es la primera integral de (4). Por ( ) se denota el conjunto { ( ) }, donde ( ) representa la derivada Lie de (4) y está dado por ( ). / ( ). Para el análisis se define * ( ) ( )+ y * ( ) ( )+. El teorema general concerniente a la localización de todos los conjuntos compactos invariantes de un sistema dinámico establece lo siguiente: Teorema.. Ver [9]. Cada conjunto compacto invariante de (4) está contenido en el conjunto de localización ( ) { ( ) }. Si se considera la localización de todos los conjuntos compactos invariantes dentro de un dominio se obtiene el conjunto ( ), con ( ) definido en el Teorema.. Es evidente que si todos los conjuntos compactos invariantes están ubicados en los conjuntos y, con, entonces estos también están ubicados en el conjunto Suponga que también se está interesado en la localización de conjuntos compactos invariantes ubicados en algún subconjunto del espacio de estado. Se formula: siguiente: Teorema.. Ver [9]. Considere ( ) una secuencia de funciones. Los conjuntos Con ( ) { ( ) } ( ) ( ) ( ) ( ) Contienen todos los conjuntos compactos invariantes del sistema (4) y Debido al sentido biológico de los sistemas ()-(3), se restringe el análisis de localización al octante no negativo ; además los parámetros del sistema son positivos. Con la finalidad de simplificar notaciones se considera ( ) ( ) y ( ) ( ). 3. ANALISIS GLOBAL DE LOS SISTEMAS DE TUMOR DURMIENTE En esta sección se definen las cotas del dominio donde se encuentran todos los conjuntos compactos invariantes de los sistemas ()-(3) y se determinan las condiciones suficientes bajo las cuales este dominio es atractivo y positivamente invariante. 3. Sistema Uno (S) 3.. Localización de conjuntos compactos invariantes Se toma la función localizadora con. Al aplicar el método de LCCI si entonces se puede establecer el siguiente resultado Teorema 3.. Si se mantiene, entonces todos los conjuntos compactos invariantes están contenidos en el dominio ( ) { } Proposición.. Ver [9]. Si ( ) entonces el sistema (4) no tiene conjuntos compactos invariantes ubicados en. Un refinamiento de la localización del conjunto ( ) se realiza con ayuda del teorema iterativo que establece lo 3.. Existencia de un dominio positivamente invariante Con el fin de probar la existencia de un dominio positivamente invariante se considera la función candidata de Lyapunov con 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 04

114 y los coeficientes positivos. Después se calcula su derivada y se obtiene la siguiente fórmula ( ) ( ) ( ) ( ) método LCCI con el cual surgen las siguientes condiciones (5) de donde se derivan las condiciones para los coeficientes, y. Al definir en donde ( ) y las condiciones se satisfacen entonces se define un dominio en * +, lo cual implica que todas las trayectorias en entran al dominio y permanecen ahí. Esto significa que para cada punto ( ) su conjunto límite (( ) ) es un conjunto no vacío y compacto invariante, ver Perko [0] y 3. and Khalil [] in 4.. Por lo tanto, (( ) ) Teorema 3.. El Sistema uno () tiene un atractor global atractivo, esto significa que todas las trayectorias en del S tenderán hacia el conjunto compacto invariante más grande en el dominio. 3. Sistema Dos (S) En esta sección se determinan los límites superiores con la finalidad de encontrar un dominio en el cual se encuentran todos los conjuntos compactos invariantes del Sistema dos (). Las funciones localizadoras que se proponen son,,, y mediante la aplicación del método LCCI además se emplea el teorema iterativo al utilizar el resultado de en, se puede establecer lo siguiente Teorema 3.3. Todos los conjuntos compactos invariantes de S () están contenidos en el dominio compacto ( ) ( ) ( ) Si se satisfacen las desigualdades, entonces se puede establecer el siguiente resultado: Teorema 3.4. Si las condiciones en (5) se mantienen, entonces todos los conjuntos compactos invariantes del S3 están contenidos en el dominio ( ) * ( ) ( )+ Además, se determina la densidad máxima de células malignas activas ( ) al considerar la función localizadora, donde. Mediante el método de LCCI se establece lo siguiente Teorema 3.5. La densidad máxima de células activas del S3 (3) está dada por ( ) { } Si se considera nuevamente la derivada Lie de la función localizadora y se toma el valor de que resulta en ( ) se obtiene lo siguiente. En este caso ( ) * + y ( ) * +: Teorema 3.6. Si la condición entonces la densidad mínima de las células proliferantes está dada por: ( ) 8 ( ), ( ( ) ) 9 Donde ( ) 3 ( ) { ( *} ( ) { ( *. /} 3.3. Existencia de un dominio positivamente invariante En esta sección se demuestra que el S3 tiene un atractor global acotado. Bajo esta condición se propone a como función candidata de Lyapunov 3.3 SISTEMA TRES (S3). / 4 ( *5 ( ) 3.3. Localización de conjuntos compactos invariantes Con la finalidad de definir un dominio que contenga todos los conjuntos compactos invariantes de S3 (3) se toma la función localizadora se aplica ( ) Ahora si se imponen las condiciones se define el dominio en donde ( ) ( ). Por lo tanto todas las trayectorias 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 05

115 en entran al dominio compacto ( ) ( ) y permanecen ahí. Esto significa que para cada punto ( ) su conjunto límite (( ) ) es un conjunto no vacío y compacto invariante, ver Perko [0] y 3. and Khalil [] in 4.. Por lo tanto, Figura. Densidad de células proliferantes y el resultado ( ). (( ) ) ( ( )) Teorema 3.7. Si y se mantienen entonces S3 (3) tiene un atractor global en, lo cual significa que todas las trayectorias fuera de ( ) ( ), eventualmente tenderán hacia este dominio positivamente invariante y permanecerán ahí. 4. SIMULACIONES NUMÉRICAS En esta sección se utilizan los valores de parámetros que se muestran en [6] con el objetivo de comparar los resultados de localización con las dinámicas que presentan cada uno de los sistemas ()-(3). Los valores de parámetros utilizados son:,,,,,,, y con ( ), ( ) y ( ). 4. SISTEMA UNO El comportamiento que presenta este sistema es una dinámica oscilatoria donde la densidad de células cancerosas no se mantiene en un estado durmiente sino que está activo. En las Fig. y se muestran el resultado de análisis por medio del método de LCCI y la dinámica de este sistema. Figura. Densidad de células en reposo y el resultado ( ). Fuente: T. Stewart and E.F. Wheelock, Cellular immune mechanisms Cota superior and tumor Kh dormancy, para las CRC células Press, proliferantes 99. Control Toolbox (6.0), User s Guide, The Math Works, 00, pp SISTEMA DOS Con respecto a este sistema, sólo tiene dos puntos de equilibrio que representan la presencia o ausencia de células tumorales. Se analizaron ambos puntos de equilibrio y sólo uno de ellos resulta localmente asintóticamente estable bajo ciertas condiciones en los parámetros. La condición se tiene que satisfacer para que el sistema permanezca en este punto de equilibrio libre de tumor. Si la desigualdad no se cumple, entonces el tumor crece infinitamente. En las Fig. 3 y 4 se puede observar el comportamiento de cada caso. Es importante mencionar que el modelo no explica el estado de latencia, [6]. Figura 3. Punto de equilibrio libre de tumor Fuente: T. Stewart and E.F. Wheelock, Cellular immune mechanisms and tumor dormancy, CRC Press, 99. Control Toolbox (6.0), User s Guide, The Math Works, 00, pp Fuente: K. Page and J. Uhr, Mathematical models of cancer dormancy, Leukemia & Lymphoma, Vol. 46, pp 33-37, al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 06

116 Figura 4. Punto de equilibrio libre de tumor inestable En la Fig. 7 se muestra la respuesta del sistema con condiciones iniciales a la Fig. 6 pero considerando las condiciones en (6) con cambios en los valores de parámetros y. En ambos casos se presenta latencia tumoral. Figura 6. Comportamiento de las variables del S3 (3). Fuente: K. Page and J. Uhr, Mathematical models of cancer dormancy, Leukemia & Lymphoma, Vol. 46, pp 33-37, SISTEMA TRES En la Fig. 5 se muestra la dinámica que presenta el sistema (3) cuando la concentración de anticuerpos es casi despreciable ( ( ) ). Sin embargo, el nivel que alcanza la densidad de células tumorales no supera el límite encontrado en ( ), ver Fig. 5. Fuente: K. Page and J. Uhr, Mathematical models of cancer dormancy, Leukemia & Lymphoma, Vol. 46, pp 33-37, 005. Figura 7. Comportamiento del S3 (3) que muestra latencia tumoral. Figura 5. Densidad de células proliferantes y el resultado ( ). Fuente: K. Page and J. Uhr, Mathematical models of cancer dormancy, Leukemia & Lymphoma, Vol. 46, pp 33-37, 005. Si la condición inicial de la concentración de anticuerpos se aumenta ( ( ) ) para atacar a las células cancerosas entonces la reacción en la densidad es la que se muestra en la Fig. 6. Sin embargo el nivel que alcanzan las células malignas puede ser letal para un paciente. Fuente: K. Page and J. Uhr, Mathematical models of cancer dormancy, Leukemia & Lymphoma, Vol. 46, pp 33-37, CONCLUSIONES Con la aplicación del método de Localización de Conjuntos Compactos Invariantes (LCCI) se encontraron cotas superiores para todas las variables de estado que representan las poblaciones celulares de los sistemas ()- (3) de tumor durmiente. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 07

117 Este método permite el análisis de diferentes tipos de modelos bilógicos-matemáticos conformados por más de dos ecuaciones diferenciales ordinarias y no lineales. 6. REFERENCIAS [] N. Müller-Hermelink, H. Braumüller, B. Pichler, T. Wieder, et al., TNFR signaling and IFN- signaling determine whether T cells induce tumor dormancy or promote multistage carcinogenesis, Cancer Cell, Vol. 3, pp , June 008. [] M. Röcken, Early tumor dissemination, but late metastasis: insights into tumor dormancy, The Journal of Clinical Investigation, Vol. 0, pp , June 00. [3] E. Yefenof, L.J. Picker, R.H. Scheuermann, T.F. Tucker, et al., Cancer dormancy: isolation and characterization of dormant lymphoma cells, Proceedings of the National Academy of Sciences, Vol. 90, pp , March 993. [4] H. Enderling, N. Almog, and L. Hlatky, Systems biology of tumor dormancy, Vol Springer, 03. [5] T. Stewart and E.F. Wheelock, Cellular immune mechanisms and tumor dormancy, CRC Press, 99. Control Toolbox (6.0), User s Guide, The Math Works, 00, pp [6] K. Page and J. Uhr, Mathematical models of cancer dormancy, Leukemia & Lymphoma, Vol. 46, pp 33-37, 005. [7] A.P. Krishchenko, Estimations of domains with cycles, Computers & Mathematics with Applications, Vol. 34, pp 35-33, July August 997. [8] L.N. Coria and K.E. Starkov, Localización de conjuntos compactos invariantes de sistemas físicos y electromecánicos y sus aplicaciones, Computación y Sistemas, Vol. 6, Septiembre 0. [9] K.E. Starkov, Bounds for a domain containing all compact invariant sets of the system describing the laser plasma interaction, Chaos, Solitons & Fractals, Vol. 39, pp , February 009. [0] K.E. Starkov, Bounds for compact invariant sets of the system describing dynamics of the nuclear spin generator, Communications in Nonlinear Science and Numerical Simulation, Vol. 4, pp , June 009. [] K.E. Starkov, Compact invariant sets of the static spherically symmetric Einstein-Yang-Mills equations, Physics Letters A, Vol. 374, pp 78-73, April 00. [] K.E. Starkov, Compact invariant sets of the Bianchi VIII and Bianchi IX Hamiltonian systems, Physics Letters A, vol. 375, pp , August 0. [3] K.E. Starkov and L.N. Coria, Bounding a domain containing all compact invariant sets of the permanentmagnet motor system, Communications in Nonlinear Science and Numerical Simulation, Vol. 4, pp , November 009. [4] D. Kirschner and A. Tsygvintsev, On the global dynamics of a model for tumor immunotherapy, Mathematical Biosciences and Engineering, Vol. 6, pp , Jul [5] K.E. Starkov and L.N. Coria, Global dynamics of the Kirschner Panetta model for the tumor immunotherapy, Nonlinear Analysis: Real World Applications, Vol. 4, pp , June 0. [6] K.E. Starkov and D. Gamboa, Localization of compact invariant sets and global stability in analysis of one tumor growth model, Mathematical Methods in the Applied Sciences, DOI: 0.00/mma.303, November 03. [7] K.E. Starkov and A.Y. Pogromsky, On the global dynamics of the Owen Sherratt model describing the tumor macrophage interactions, International Journal of Bifurcation and Chaos, Vol. 3, 9 pages, February 03. [8] K.E. Starkov and A. Villegas, On some dynamical properties of one seven-dimensional cancer model with immunotherapy, International Journal of Bifurcation and Chaos, Accepted, February 03. [9] A.P. Krishchenko and K.E. Starkov, Localization of compact invariant sets of the Lorenz system, Physics Letters A, vol. 353, pp , May 006. [0] L. Perko, Differential equations and dynamical systems, Vol. 7. Springer (3rd ed.), 00. [] H.K. Khalil, Nonlinear Systems, Vol. 3. Prentice Hall Upper Saddle River, al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 08

118 SECCIÓN III CIENCIAS COMPUTACIONALES 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 09

119 3 LA DESERCIÓN ESCOLAR DESDE EL PUNTO DE VISTA DE LA MINERÍA DE DATOS. CASO DE ESTUDIO: TESJo, GENERACIONES Resumen-- En este trabajo se presenta la propuesta para el desarrollo de un sistema experto capaz de identificar automáticamente y en tiempo real a los alumnos que se encuentre en riesgo deserción escolar. La identificación de los alumnos en riesgo de deserción escolar se llevara a cabo mediante un sistema de redes neuronales artificiales, que será abastecido por estudios de inteligencia de negocios a través de minería de datos y reconocimiento de patrones. La principal aportación de este proyecto es reducir la intervención humana en la detección de alumnos en riesgo de deserción escolar y de esta forma ser eficiente en contextos donde la cantidad de alumnos y datos es cuantiosa y que por ende el análisis humano de esta información sería muy costoso en cuanto a tiempo y recursos humanos. Asimismo en este trabajo se presentan los principales resultados obtenidos durante la fase inicial del proyecto. Palabras claves-- Deserción escolar, inteligencia de negocios, minería de datos. R. ALEJO (Tecnológico de Estudios Superiores de Jocotitlán) ralejoll@hotmail.com L. GIL-ANTONIO (Tecnológico de Estudios Superiores de Jocotitlán) lgilant7@yahoo.com.mx E. LÓPEZ-GONZÁLEZ (Tecnológico de Estudios Superiores de Jocotitlán) lz_erika_gz@yahoo.com.mx J.A. ANTONIO-VELÁZQUEZ (Tecnológico de Estudios Superiores de Jocotitlán) juanjonatan@yahoo.com.mx. INTRODUCCIÓN La deserción escolar es un problema que afecta a prácticamente a todas las comunidades académicas desde el nivel básico hasta el nivel superior. De acuerdo a la Secretaría de Educación Pública, el nivel que presenta mayor deserción es el medio superior []. No obstante, este problema, como ya se dijo antes, también se encuentra en el nivel superior y es necesario abordarlo. A nivel superior se ha propuesto la Tutoría como un medio para tratar de resolver este problema []. Sin embargo, no se ha traducido en una disminución del índice de deserción. Por otro lado, se han desarrollado números estudios para tratar de entender este problema y como puede solventarse. Estos estudios van desde los meramente pedagógicos o sociológicos (por ejemplo véanse las Ref. [3] y [4]) hasta los más innovadores, es decir, los que hacen uso de tecnologías emergentes como la minería de datos (ver Ref. [5], [6] y [7]). La minería de datos es una disciplina que busca la extracción de conocimiento de los datos. Se auxilia de la estadística, la inteligencia artificial, el aprendizaje automático entre otras herramientas. Se ha justificado el uso de la minería de datos en el ámbito educativo porque cada vez existe más información y cada vez es más difícil procesarla con métodos convencionales [8]. En este trabajo se presenta una propuesta para desarrollar un sistema que sea capaz de identificar automáticamente en tiempo real a los alumnos con altas probabilidades de desertar en el Tecnológico de estudios Superiores de Jocotitlán (TESJo). Asimismo se presentan resultados preliminares obtenidos del análisis de los datos personales y académicos a través de minería de datos de las generaciones La principal aportación de este trabajo es que presenta algunas afirmaciones que son ciertas en el ámbito académico del TESJo y que pueden servir para entender a nuestra comunidad académica.. PLANTEAMIENTO DEL PROBLEMA Al concluir cada semestre en la Carrera de Ingeniería en Sistemas Computacionales del TESJo, la deserción de los alumnos es constante, debido a diversos factores de entre los cuales se han identificado como relevantes los siguientes: a) Falta de información acerca de la carrera. b) Falta de recursos económicos. c) Falta de vocación por la carrera. d) Bajo rendimiento académico. De acuerdo a la información proporcionada por el departamento de control escolar del TESJo sobre las generaciones del 003 al 009, se ha observado que en la carrera de ISC se presenta un alto índice de deserción escolar. La Fig.. muestra la cantidad de alumnos que ingresaron y los alumnos que abandonaron la carrera. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

120 Asimismo en esta figura se presenta un proceso de extrapolación para los próximos tres años, es decir, se presentan los índices de ingreso y deserción para 00, 0 y 0. Estos resultados muestran información alarmante en cuanto a los índices de deserción escolar, en otras palabras, la deserción escolar seguirá aumentando proporcionalmente al aumento de la matrícula de ingreso. Fig.. Índices de deserción de la carrera de ISC del TESJo. 3. JUSTIFICACIÓN Fuente: Elaboración propia En toda institución educativa el recurso más importante son los alumnos, por lo tanto, es de suma importancia conocer por qué los alumnos desertan y más aún identificar a aquellos en riesgo de deserción escolar en una fase temprana para poder establecer políticas y/o estrategias que ayuden a reducir los índices de deserción. Por estas razones el TESJo ha motivado al desarrollo de nuevos proyectos que logren entender, analizar y en un determinado momento prevenir este fenómeno. En el laboratorio de reconocimiento de patrones y minería de datos se está realizando un Sistema Experto (basado en redes neuronales artificiales) que permita identificar automáticamente a los alumnos que son vulnerables a sufrir la deserción escolar y con ello el sistema de tutorías se enfoque principalmente a un grupo reducido de la población estudiantil y con esto se pueda prevenir su deserción. La identificación de alumnos en riesgo de deserción escolar es generalmente una actividad puramente humana y lo que se busca en este proyecto es automatizar este proceso (a través del uso de algoritmos inteligentes). Por otro lado, la cantidad de alumnos en las Instituciones de Educación Superior es cada día mayor y por lo tanto el número de datos a analizar también lo es. Esto dificulta la identificación de alumnos en riesgo de manera manual o tradicional, por lo que el uso de herramientas computacionales e inteligentes como las que se proponen en este trabajo permitirá afrontar este reto. 4. METODOLOGÍA Para desarrollar sistema experto propuesto (basado en redes neuronales artificiales) que sea capaz de identificar automáticamente a los alumnos que se encuentren en riesgo de deserción escolar, se requiere de desarrollar las siguientes fases:. Diseñar y desarrollar una infraestructura digital que permita que el proceso de tutorías pueda ser realizado en línea.. Aplicar técnicas de Minería de Datos y Reconocimiento de Patrones a través de estudios de Inteligencia de Negocios para obtener información relevante y tendencias de los alumnos que se encuentran en riesgo de deserción escolar. 3. Desarrollar un modelo artificial basado en redes neuronales para la identificación automática de los alumnos en riesgo de deserción escolar. 4. Implementar el modelo artificial del punto anterior en el sistema de tutorías. 5. Evaluar la efectividad del modelo de detección de alumnos en riesgo. 6. Implementar el sistema de identificación de alumnos en riesgo en el TESJo En la sección 5 se presentan algunos de los principales resultados obtenidos después de concluir la fase e iniciar con la fase. Los puntos 3, 4, 5, y 6 serán desarrollados y presentados en trabajos futuros. 5. RESULTADOS PRELIMINARES Actualmente se han realizado estudios con información de generaciones anteriores ( ), a través de herramientas de minería de datos como las reglas de asociación y el clustering. Se han obtenido conclusiones parciales sobre los factores que influyen en la deserción, así como información que nos permitirá entender nuestro contexto académico. A continuación se presentan los principales resultados obtenidos del análisis de la deserción escolar en la comunidad del TESJo.. Hay una fuerte relación entre alumnos que practican futbol y tienen problemas económicos, por otro lado, los alumnos que no practican deporte dicen no tener problemas económicos.. La mayoría de alumnos que desertan tienen problemas económicos. 3. Los alumnos que desertan tienen promedios de la preparatoria de regulares a buenos. 4. La mayoría de los alumnos que desertan no han dejado de estudiar antes de su deserción. 5. Hay una marcada diferencia entre las opiniones de hombres y mujeres. 6. Los alumnos que ingresan a la carrera de ISC dice conocer a que se refiere la carrera, sin embargo, la idea que tienen sobre la carrera es errónea. 7. A partir de estos resultados se puede vislumbrar un panorama general del contexto de nuestra comunidad estudiantil, por ejemplo la marcada diferenciación entre las opiniones de hombres y 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

121 mujeres, o la relación entre el futbol y la situación económica. Sin embargo, estos resultados son preliminares y es necesario un estudio más extenso para dar mayor fiabilidad a esta información y como consecuencia que puedan ser usados como apoyo a la toma de decisiones. nuestro propio sistema de detección temprana de alumnos en riesgo de desertar, porque las condiciones sociológicas, económicas y tecnológicas son distintas en cada región del mundo e inclusive en el mismo país existen zonas completamente diferenciadas y en ocasiones las distancias entre estas zonas son de unos cuantos kilómetros. 6. IMPACTO SOCIAL, TECNOLÓGICO Y ECOLÓGICO En toda institución estudiantil lo más importante son los alumnos por lo cual con el desarrollo de este proyecto permitirá la identificación de alumnos en riesgo de deserción para que se puedan tomar decisiones encaminadas a combatir este problema. Desde el punto de vista Tecnológico el impacto de este proyecto es que se están aplicando tecnologías emergentes como la minería de datos y las redes neuronales artificiales para tratar la deserción escolar. Lo que cumple con los principios de innovación y desarrollo tecnológico. Desde un enfoque Ecológico, el impacto es que con el cambio del proceso de tutorías de manera manual al digital, se podrá reducir el uso de papel que actualmente se utiliza, evitando así que en un futuro el papel se vuelva basura. Finalmente, considerando el nivel de aplicación práctico o económico del proyecto, se busca la protección legal del producto final (sistema experto) para su posible comercialización o transferencia tecnológica a sectores afines al contexto donde el proyecto fue desarrollado, por ejemplo en el Sistema Nacional de Institutos Tecnológicos (SNIT). 7. TRABAJOS RELACIONADOS La aplicación de la minería de datos para tratar el problema de la deserción escolar, no es nuevo. Se han desarrollado números propuestas para enfrentar este reto [8] por ejemplo en la Ref. [5] se muestra el uso de minería de datos para identificar las causas de deserción en la facultad de Ingeniería de Sistemas de Universidad Simón Bolívar. En [6] se presenta una propuesta de soporte a las decisiones y de la gestión de la inteligencia académica para apoyar a planificar la retención estudiantil basada en la deserción de estudiantes. Se centra en el uso de árboles de decisión. Un trabajo muy similar al propuesto en este documento puede encontrarse en [7]. En él se muestra un sistema de alerta temprana para la identificación de alumnos en riesgo de deserción escolar. Como puede verse el problema abordado en este trabajo no es nuevo ni mucho menos se ha investigado poco. Sin embargo, consideramos que es necesario el diseño de 8. CONCLUSIÓN Y TRABAJOS FUTUROS Este trabajo muestra la propuesta para el desarrollo de un sistema para detección automática de alumnos en riesgo de deserción escolar. Se muestran resultados preliminares que permiten entender el contexto académico de nuestra comunidad estudiantil, los cuales ayudaran a una mejor toma de decisiones. Por otro lado, es necesario aclarar que este trabajo es parte de la fase inicial del proyecto propuesto. Hasta ahora solo se ha culminado la primera fase (ver sección 4), es decir, el desarrollo de la infraestructura necesaria para llevar a cabo el proceso de tutoría en línea, lo que permitirá obtener datos para procesarlos a través de minería de datos. Asimismo se han aplicado técnicas de minería de datos a información histórica de nuestros alumnos y a partir de ella se han generado los resultados presentados en la sección 5. En conclusión el proyecto no ha sido concluido en su totalidad y se espera en un futuro no lejano se pueda concluir con todas la fases de desarrollo propuestas en la sección REFERENCIAS [] Secretaria de Educación Pública, Reporte de la Encuesta Nacional de Deserción en la Educación Media Superior, 0. [] Institutos Tecnológicos, Manual del Tutor del SNIT Secretaria de Educación Pública. 03. [3] Luz Helena Rodríguez Núñez, Pbro. Francisco Javier Londoño Londoño, Estudio sobre deserción estudiantil en los programas de Educación de la Católica del Norte Fundación Universitaria, Revista Virtual Universidad Católica del Norte. No. 33. pp , 0. [4] Vélez, A. & D. López Estrategias para vencer la deserción Universitaria. Educación y Educadores. Vol. 7: pp , 004. [5] Azoumana, K. Análisis de la deserción estudiantil en la Universidad Simón Bolívar, facultad Ingeniería de Sistemas, con técnicas de minería de datos. Pensamiento Americano, 4-5, 03. [6] Elmer Hugo González Herrera, Modelo de Decisión Cualitativo Multi-Atributo y Gestión de Inteligencia Académica para Apoyar la Planificación Académica en la Retención Estudiantil de la Escuela de Ingeniería de Computación y Sistemas de la UPAO 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

122 usando la Metodología DEXi, IV encuentro científico internacional del Norte 03. pp [7] Carvajal Olaya, Patricia Montes García, Héctor Hernán Trejos Carpintero, Álvaro Antonio Cárdenas, Johanna, Sistema de Alertas Tempranas: una herramienta para la identificación de riesgo de deserción estudiantil, seguimiento académico y monitoreo a estrategias, Tercera Conferencia sobre el Abandono en la Educación Superior (III CLABES). Dpto. de Publicaciones de la E.U.I.T. de Telecomunicación. pp [8] Vélez, A. & D. López Predicción del Fracaso Escolar mediante Técnicas de Minería de Datos. IEEE-RITA, Vol. 7, Núm. 3, pp. 09 7, 0. R. Alejo: Ingeniero en Sistemas Computacionales con estudios de Maestría en Ciencias Computacionales y Doctorado en Sistemas Informáticos Avanzados. Profesor a nivel licenciatura y posgrado con más de 0 años de experiencia. L. Gil-Antonio: Ingeniero en Electrónica y de Comunicaciones con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con más de 0 años de experiencia. Erika López González: Ingeniero en Computación con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con 8 años de experiencia. J. A. Antonio-Velázquez: Ingeniero en sistemas computacionales con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con más de 9 años de experiencia. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

123 INVESTIGACIONES ACTUALES RELACIONADAS AL RECONOCIMIENTO DE PATRONES Resumen Actualmente el Reconocimiento de Patrones y Aprendizaje Automático se ha afianzado como un área de la inteligencia artificial que busca adquirir e identificar objetos (patrones), representarlos, clasificarlos y posteriormente evaluarlos creando así un sistema de aprendizaje automático. El presente artículo pretende mostrar las nuevas tendencias del reconocimiento de patrones y aprendizaje automático para solucionar problemas reales, tales como, reconocimiento de rostros, reconocimiento de movimiento de objetos y colores para robots autónomos, en la alimentación para diferenciar alimentos en mal estado con los que se pueden todavía comer, etc. Con la intención de conocer los avances de investigación en reconocimiento de patrones que actualmente se estudian. Palabras claves Reconocimiento de patrones, aprendizaje automático, aprendizaje supervisado, aprendizaje no supervisado. Juan Alberto Antonio Velázquez Tecnológico de Estudios Superiores de Jocotitlán Carretera Toluca-Atlacomulco KM Ejido de San Juan y San Agustín Jocotitlán, juanalbertoantonio@hotmail.com Alejo Eleuterio Roberto Tecnológico de Estudios Superiores de Jocotitlán Carretera Toluca-Atlacomulco KM Ejido de San Juan y San Agustín Jocotitlán, ralejoll@hotmail.com López González Erika Tecnológico de Estudios Superiores de Jocotitlán Carretera Toluca-Atlacomulco KM Ejido de San Juan y San Agustín Jocotitlán, lz_erika_gz@yahoo.com.mx Gil Antonio Leopoldo (Tecnológico de Estudios Superiores de Jocotitlán Carretera Toluca-Atlacomulco KM Ejido de San Juan y San Agustín Jocotitlán, lgilant7@yahoo.com.mx Rosa María Valdovinos Rosas Universidad Autónoma del Estado de México, Facultad de Ingeniería Cerro de Coatepec li_rmv@hotmail.com. INTRODUCCIÓN El reconocimiento de Patrones es una ciencia que desciende de la rama de la inteligencia artificial que se encarga de la descripción y clasificación (reconocimiento) de objetos, personas, representaciones de todo lo que interactúa con el ser humano y que al final se puede representar computacionalmente. Por ejemplo con la ayuda del reconocimiento de patrones hoy en día se puede dar un diagnóstico más acertado para encontrar espectros que diferencien individuos sanos a individuos que están enfermos de enfermedades renales crónicas []. El reconocimiento de la voz y sonidos se ha empleado en la terapia del lenguaje en niños con problemas psicomotores []. Con la ayuda del reconocimiento de patrones y con la ayuda de los síntomas en un paciente se puede determinar si contiene la bacteria gonococcus o la bacteria Neisseria gonorrea causantes de la gonorrea [3]. Por otro lado otros investigadores que estudian el área de robótica con visión artificial han utilizado el reconocimiento de imágenes y con la ayuda del reconocimiento de patrones manipular un robot programado en un circuito FPGA y que fuera capaz de reconocer objetos de colores utilizando una cámara [4]. Otras áreas en las cuales se aplica el Reconocimiento de patrones es el procesamiento de imágenes satelitales, reconocimientos de rostros, control de robots, reconocimiento de caracteres escritos, sistemas de reconocimiento de voz, desarrollo de diarios, lectura de direcciones postales, [5] etc. Se deduce por problemas de Reconocimiento de Patrones a todos aquellos relacionados con la clasificación de objetos y fenómenos que tienen factores que inciden en los mismos. Existen varios enfoques en el reconocimiento automático de patrones. Los más utilizados son: Los que se basan en la teoría de probabilidad y estadística, los que utilizan funciones discriminantes, los que se basan en la neurocomputación y los que trabajan con algoritmos de 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

124 búsqueda de optimización basados en heurística entre otros [5].. Características generales Enfoque Estadístico. Una de las primeras herramientas utilizadas en la solución de Reconocimiento de Patrones es la Estadística; utiliza el Análisis Discriminante, la Teoría de Probabilidad y el Análisis de Agrupamientos (Cúmulus, clúster) [6]. El enfoque estadístico es el más simple de todos los enfoques y consiste en representar cada patrón mediante un vector resultante del muestreo y cuantificación de las señales externas y cada clase por uno o varios patrones modelo. Ha sido aplicado en muchos problemas, en particular cuando se relaciona con imágenes y señales. Los estudios apropiados de variables, la variabilidad de los patrones de una clase, las medidas de semejanza entre patrones, así como la relación entre patrones y clases y caracterizan a este enfoque son los siguientes: Existen dos diferentes formas de reconocimiento estadístico que son [5]: El reconocimiento paramétrico y el reconocimiento no paramétrico. Entre tanto que, el reconocimiento paramétrico trabaja por medio de métodos estadísticos como la Teoría de Decisión de Bayes para calcular la probabilidad a priori de las clases. El Reconocimiento no paramétrico dispone de un conjunto de patrones que se representan en forma de vector y utiliza funciones discriminantes donde se establecen regiones en un universo de estudio donde se encuentran las clases a las que contienen a los patrones y para determinar a la clase que pertenece un patrón nuevo necesita la información de éste que se proporciona por los patrones de entrenamiento [7].. Enfoque sintáctico estructural Este enfoque se deriva de la Teoría de los lenguajes formales y su origen está relacionado con el reconocimiento de imágenes y señales. Por ejemplo, si existe una señal electrocardiográfica ésta se puede descomponer en partes. Este tipo de reconocimiento busca las relaciones estructurales que guardan los objetos de estudio, es decir busca la cantidad de información que un objeto x tiene sobre un objeto y, y el metalenguaje con el que puede ser capaz de describirse, utilizando descriptores sintácticos con la ayuda de la teoría de lenguajes formales []. En otras palabras, el propósito es encontrar la gramática cuyo lenguaje estaría formado sólo por señales que estarían estrechamente vinculadas unas con otras y aquellas señales que no tuvieran que ver con las primeras, responderían a gramáticas diferentes, por lo que pertenecerían a otro lenguaje..3 Redes neuronales artificiales Este tipo de enfoque utiliza una estructura formada por varios nodos (neuronas) que se interconectan entre sí mediante pesos y que se concentran en diferentes capas (de entrada, oculta por lo general). Esta estructura es entrenada con los patrones disponibles, de tal manera que al finalizar el entrenamiento, la red neuronal tenga la capacidad de etiquetar nuevos patrones de forma eficiente y en poco tiempo. Es una herramienta que debido a su alto poder de clasificación y resolución de problemas del tipo no lineal se utiliza hoy en día para la solución de problemas de reconocimiento de patrones aunque puede tener algunos inconvenientes como el desconocimiento a priori de la estructura de capas y el número de nodos necesarios para cada problema, contar con un aprendizaje excesivamente costoso y tener problemas de caer en mínimos locales durante su entrenamiento [6]..4 Enfoque de reconocimiento lógico combinatorio de patrones Este enfoque trabaja en la imagen del modelado de un problema y debe ser lo más parecido a la realidad del mismo, sin hacer suposiciones que carezcan de fundamento. Las ideas centrales consisten también en suponer que los objetos se describen por medio de una combinación de rasgos numéricos y no numéricos, y los distintos valores pueden ser procesados por funciones numéricas [8]. Utiliza un fundamento teórico-matemático basándose en la lógica matemática, la teoría de testores, la teoría clásica de conjuntos, la teoría de los subconjuntos difusos, la teoría combinatoria y las matemáticas discretas en general.. CLASIFICACIÓN EN EL RECONOCIMIENTO DE PATRONES. En la clasificación de patrones se dice que dado un universo de estudio dividido en clases y una muestra de objetos ya clasificados, se tienen que buscar mecanismos que permitan clasificar nuevos objetos (patrones) [6]. El proceso de clasificación consiste en incorporar información sobre un patrón o conjunto de entrenamiento en el diseño del clasificador que incluye un tipo de aprendizaje [5]. Existen 3 tipos de aprendizaje que son: el aprendizaje supervisado, no supervisado y semisupervisado o parcialmente supervisado. En el primero se cuenta con un conjunto de patrones pero también llamado muestra de entrenamiento o conjunto de datos del entrenamiento (CE). Un experto humano es quien realiza la clasificación según sus propiedades [9]; para resolver problemas de clasificación supervisada se han perfeccionado gran cantidad de métodos como: clasificadores Bayesianos, arboles de decisión, redes neuronales, máquinas de vectores de soporte, vecinos más cercanos, algoritmos de votación, clasificadores 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

125 basados en patrones, etc. [6]. En el aprendizaje no supervisado también conocido como agrupamiento [6], que utiliza algoritmos conocidos como auto-asociativos y no requiere de un etiquetado previo en los patrones de entrada y utiliza técnicas de clustering [5]. El aprendizaje no paramétrico (por agrupamiento) [0], se divide en tres métodos de agrupamiento, jerárquicos, particionales y basados en densidad [7]: En el agrupamiento jerárquico el conjunto de datos se va particionando por niveles, en cada nivel se unen o se dividen en dos grupos del nivel anterior, puede ser aglomerativo o divisivo y éstos en su resultado gráfico es mediante dendrogramas. En las aglomerativas: Se utiliza un acercamiento ascendente: cada observación comienza en su propio grupo, y los pares de grupos son mezclados mientras uno sube en la jerarquía. En las divisivas: Es un acercamiento descendente: todas las observaciones comienzan en un grupo y generalmente se realizan divisiones mientras uno baja en la jerarquía. En el agrupamiento del tipo particional son los que al inicio realizan una división de los datos en grupos y posteriormente mueven los objetos de un grupo a otro según se optimice alguna función objetivo. Los algoritmos basados en densidad enfocan el problema de la división de un tipo de datos en grupos y se toma en cuenta la distribución de densidad de los puntos, de modo que los grupos que se forman tienen una alta densidad de puntos en su interior mientras que entre ellos aparecen zonas de baja densidad. Agrupamiento Restringido: El número de grupos está previamente definido. Esto resulta útil cuando se tiene conocimiento acerca de la estructura del universo de estudio, pero se desconoce la clasificación de la muestra. Agrupamientos Libres: El número de grupos es desconocido. Éste es el caso más general, sólo cuenta con una muestra de objetos, pero se desconoce la forma en que se estructura el universo. Y en el aprendizaje parcialmente supervisado se combinan las técnicas anteriores, pero se parte de un conjunto pequeño de patrones de entrenamiento que va creciendo a medida que hay nuevos patrones sin etiquetar [] y su objetivo es aumentar el conocimiento durante la fase de clasificación, facilitando así la simplificación de obtención de patrones etiquetados. 3. Aplicaciones actuales y Tendencias en el Reconocimiento de Patrones La historia de reconocimiento automatizado de patrones se remonta a la llegada de la informática moderna a través de mucho tiempo desde la aparición de la inteligencia artificial como resultado de la psicología cognitiva y la lógica matemática donde se incluyen solución a diagnósticos de fallas, robótica y suministro de asesoría experta; el concepto de inteligencia artificial se debe a John McCarthy quien en 956 al discutir la posibilidad de construir máquinas que hicieran operaciones inteligentes acuño este término []. El reconocimiento de patrones como una rama que desciende de la inteligencia artificial fue reconocido por el investigador King-Sun Fu en el año de 97 [3]. Desde entonces, la popularidad y el crecimiento del campo de reconocimiento de patrones han sido alimentados por el mismo significado científico y su aplicabilidad al mundo real. El reconocimiento de patrones es un área de investigación muy desafiante y multidisciplinaria, atrae a investigadores y profesionales de muchos campos, incluyendo la informática, la inteligencia, la estática, la ingeniería y las ciencias médicas computacionales, por mencionar sólo unos pocos. A continuación se muestran algunas de las aplicaciones y tendencias de Reconocimiento de Patrones hoy en día. 3. Reconocimiento de Escritura cursiva (manuscrito) El reconocimiento de escritura cursiva o escritura a mano, es una tarea difícil para muchas aplicaciones del mundo real, tales como la autenticación de documentos, procesamiento de formularios, el reconocimiento de la dirección postal, máquinas de lectura para ciegos, reconocimiento cheque bancario, y la interpretación de documentos históricos. Al respecto Verma y Blumenstein [4], revisan las técnicas de reconocimiento de escritura existentes y presenta el estado actual de la técnica en el reconocimiento de escritura a mano cursiva. El artículo también presenta estrategias de segmentación y un enfoque basado en segmentación para el reconocimiento automático de la escritura cursiva sin restricciones. También se ofrece una revisión exhaustiva de la literatura con las técnicas básicas y avanzadas y resultados de investigación en reconocimiento de escritura para estudiantes de posgrado, así como para investigadores avanzados. En este trabajo se utilizó la técnica de clasificación por aprendizaje supervisado donde el autor propone en primer lugar, se propone un método de segmentación basado en curvas de nivel, el cual soluciona el primer problema con la forma delineada del caracter. Un enfoque de extracción del contorno para el caracter entre dos puntos de segmentación es significativa y útil. La extracción de contorno es muy importante porque una extracción basada en una disección vertical puede cortar un carácter a la mitad o de manera inadecuada. El 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

126 contorno entre dos puntos consecutivos de segmentación se extrae utilizando prioridad y enfoque basado en la segmentación forzada, que se basa en la evaluación de precedencia y la regla para forzar un punto de segmentación para el reconocimiento del carácter. Por último, se propone un enfoque de validación neuronal para eliminar puntos de segmentación incorrectos. Este enfoque se basa en tres clasificadores que utilizan perceptrones multicapa (MPLs) y máquinas de vectores soporte (SVMs). El éxito de las técnicas basadas en redes neuronales para el reconocimiento numérico y de caracteres ha dado la motivación para su uso. El reciente éxito en la aplicación de SVMs en el área de reconocimiento de escritura, justifica su uso junto con técnicas basadas en redes neuronales, en algunos casos superando a las redes neuronales. El primer clasificador es entrenado con información de trazos izquierdos y derecho del caracter. El segundo clasificador es entrenado con información descriptiva desde el punto mismo de segmentación. El tercer clasificador es entrenado con los caracteres adyacentes o compatibles. Los núcleos finales se fusionan, y se eliminan los puntos de segmentación dando por resultado un carácter reconocible. donde se define la diferencia entre dos imágenes de caracteres escritos a mano [5] Fuente: Elaboración propia Las técnicas EM para el reconocimiento de escritura a mano en base a la formulación DW que en el cual uno de los factores determinan las características de EM. Se estudian tipos de clases paramétrico DW basado en EM y no paramétrico DW basado en EM. Figura. Técnicas de clasificación paramétricas y no paramétricas EM empleadas en el reconocimiento de caracteres manuscritos [5] 3. Técnicas de juego con elasticidad, para el reconocimiento de caracteres manuscritos. El investigador Seiichi Uchida de Kyushu University de Japón comenta en su artículo [5], un estudio de las características de la adaptación elástica (elastic matching, EM), que son técnicas empleadas en el reconocimiento de caracteres manuscritos. EM a menudo se denomina plantilla deformable, adaptación flexible, o comparación de plantillas no lineal, y se define como el problema de optimización de la deformación de dos dimensiones (DW) que especifica la correspondencia píxel a píxel entre dos patrones de imagen de carácter sometidos a elasticidad. La distancia de los puntos en un patrón deformable es evaluada bajo la optimización DW y es invariante al rango de deformaciones geométricas de cada caracter. Por lo tanto, mediante el uso de la distancia EM como una función discriminante, los sistemas de reconocimiento robustos a las deformaciones de caracteres escritos a mano se pueden optimizar más fácilmente. En el trabajo realizado por estos investigadores, se proponen técnicas de EM donde se clasifican según el tipo de DW y las propiedades de cada clase a utilizar. Varios temas alrededor de EM, como la categoría de dependiente deformación de los caracteres escritos a mano que también se discuten. Fuente: Elaboración propia La mayoría de las técnicas de EM paramétricos para el reconocimiento de caracteres manuscritos suponen que las deformaciones geométricas de caracteres escritos a mano pueden ser descritos por algunas transformaciones lineales. Wakahara y sus colegas han propuesto técnicas afines a DW basados en transformación, llamados GAT (transformación global afín) [6], para el reconocimiento de caracteres manuscritos. En GAT, DW se describe por una sola transformación afín global. El problema de optimización de GAT es aproximado como un problema lineal mediante la fijación de los parámetros en la parte no lineal de una función objetivo a valores constantes. Este problema puede ser resuelto aproximada por el método de iteración sucesiva. En la clase no paramétrico DW, cada variable controla un pixel correspondiente y representa una medida que controla a DW indirectamente. Para clasificar los puntos mediante la función no paramétrico y continua DW, a menudo se asume como una función continua y derivable que optimiza por alguna estrategia iterativa donde DW se actualiza. En este sentido la clase no paramétrica y continua DW es similar en paramétrico DW. Usando la relajación determinística se puede ver como una estrategia de optimización iterativo para problemas variacionales. Cuando estrategia de optimización para los Figura. Reconocimiento de patrones A y B donde se aplica la asignación de deformación D-D y posteriormente DW problemas variacionales. Al optimizar con clases no 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

127 paramétricas y continua DW por relajación determinista y usando la ecuación de Euler-Lagrange se obtiene un sistema de ecuaciones no lineales para resolver el problema elástico de los caracteres. Figura 3. Imagen del cerebro para su estudio en la localización de patologías [9]. 3. Reconocimiento de Rostros El reconocimiento automático facial, sirve hoy en día para identificar a los individuos mediante la explotación de las características distintivas de la superficie del rostro humano, las curvas de la cuenca de los ojos, la nariz y la barbilla, donde el tejido y el hueso son más evidentes y que no lo hacen cambiar con el tiempo [7]. Este reconocimiento se hace con la ayuda de una computadoras que identifica automáticamente a una persona mediante una imagen digital mediante el análisis de las características faciales de una persona extraídas de la imagen o de un fotograma de video y mediante técnicas como el procesado de imágenes, reconocimiento de patrones, visión por computadoras y redes neuronales puede ayudar a reconocer un rostro. En el trabajo realizado por Tin Shan, Abbas Bigdeli, Brian Lovell y Shaokang Chen [8] se habla de la problemática existente en la adquisición de imágenes, tales como el ángulo de la iluminación, la expresión facial y el pose de la cabeza. La precisión de adquisición puede caer a 0% o incluso a menos en condiciones de adquisición de imágenes no controladas. Tales condiciones se encuentran a menudo en la captura automática de la identidad para la vigilancia de vídeo y para la identificación de rostros por medio de una cámara del teléfono. De hecho, el teléfono móvil es una ayuda ya que su cámara con alta resolución para el reconocimiento avanzado de patrones en rostros. Muchos teléfonos modernos pueden reconocer de forma fiable aún en ambientes ruidosos. El rendimiento de los sistemas de reconocimiento facial se reduce significativamente cuando grandes variaciones pose están presentes. Se han propuesto muchos enfoques para compensar el cambio pose. Wiskott, Fellous, Kuiger, y von der Malsburg extienden el DLA (arquitectura de enlace dinámico) reconocedor de caras basado para hacer frente a grandes variaciones de pose. La imagen de la cara está representada por un gráfico de marcado llamado el gráfico racimo de rostros (FBG, face bunch graph) que consiste en N nodos conectados a E bordes. Los nodos están localizados como puntos de referencia faciales xn, n=,,n, que son llamados puntos faciales. En la Biomedicina se ha logrado avances como lo mencionado por [9], en clasificación de imágenes en la medicina. Es una de las metodologías más utilizadas en el campo de la biomedicina para detección de anomalías en la anatomía del cuerpo humano. La clasificación de la imagen cerebral pertenece a una amplia categoría de reconocimiento de patrones en las que diferentes imágenes anormales se agrupan en incomparables categorías basadas en la naturaleza de estas patologías que dañan al cerebro. Fuente: Elaboración propia Hoy en día, estas técnicas son automatizadas. La aplicación de técnicas de inteligencia Artificial (AI) para el reconocimiento de patrones es explorado en el contexto de Resonancia Magnética (RM) anormal para la clasificación de imágenes del cerebro con patologías extrañas. La teoría ilustra la categoría detrás de las técnicas de IA y su efectividad para su aplicación práctica en la clasificación de imágenes médicas. Aparte de las técnicas de IA como las redes neuronales, la teoría fuzzy y algoritmos genéticos también se tratan en esta investigación. En la robótica y con la ayuda del reconocimiento de imágenes donde se aborda el problema del reconocimiento de señales generadas por una persona para guiar a un robot. En el trabajo realizado por [0], donde el método propuesto se basa en el análisis de color de vídeo de una persona que se mueve por señas. El análisis consiste en la segmentación de medio cuerpo, el brazo y la ubicación del antebrazo con ayuda del reconocimiento de las posiciones del brazo y el antebrazo. El método propuesto fue probado experimentalmente en vídeos con diferentes colores de destino y las condiciones de iluminación. Las evaluaciones cuantitativas indican 97.76% de la detección correcta de los signos en.807 frames de video. 3.3 Reconocimiento de patrones en la alimentación. En otro caso como la alimentación se dice en [] que la caracterización y clasificación de las tortillas de maíz resulta ser un proceso extremadamente delicado y difícil cuando se trata de regulaciones para importación/exportación y certificación de procesos de producción. En este trabajo se presenta un método para la extracción de características no invasivas, basado en imagen digital y una serie de procedimientos para caracterizar diferentes cualidades de las tortillas de maíz para su posterior clasificación. La novedad en todo este método radica en el extremadamente y reducido conjunto de características necesarias para la caracterización; tomando en cuenta sólo las características geométricas y de color. No obstante, en este conjunto de características puede evaluar diversos elementos de calidad como la hom*ogeneidad del proceso de horneado y otros por igual. Los resultados experimentales en un tamaño muestra de 600 tortillas muestran el método presentado en torno al 95% de efectividad en la calidad de las mismas. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8

128 3.4 Reconocimiento de patrones en la seguridad informática. En lo que se refiere a la seguridad informática se menciona en el trabajo [], donde se captura el tráfico de red y se ve que cada vez es mayor los incidentes por ataques, debido al uso creciente de dispositivos inteligentes e Internet. Importe de los estudios de detección de intrusos se centró en la selección o reducción característica porque algunas de las características son irrelevantes y redundantes, que resulta largo proceso de detección y degrada el rendimiento de un sistema de detección de intrusiones (IDS). El propósito de este estudio es identificar importantes características de los tipos de intrusiones seleccionados en la construcción del IDS que es computacionalmente eficiente y efectiva. Para ello se evalúa el funcionamiento de los métodos de selección de características estándar; CFS (basada en la selección de correlación característica), IG (Ganancia de Información) y GR (Radio de ganancia). En este artículo, se propone un nuevo método de selección de características utilizando la función de la media del total en cada clase. Se aplica un algoritmo clasificador basado en árboles, para evaluar el método de reducción de características. Se compara sus resultados del método propuesto con otros métodos mencionados en otros trabajos. repositorio UCI Machine Learning [5]. Los datos de la UCSD establecen correspondiente a una versión reducida de una base de datos utilizada en el Concurso de Data Mining en el 007 organizado por la Universidad de California en San Diego y por la Fair Isaac Corporation. El conjunto de datos de Irán [6], trata de una modificación de una base de datos de clientes corporativos de un pequeño banco privado en Irán. Cada juego original, excepto la base de datos de Irán debido a su extremadamente alta relación de desequilibrio (iratio = 9), ha sido alterada por azar bajo-muestreo de la clase minoritaria de morosos, lo que produce seis conjuntos de datos con diferentes desequilibrio ratios, iratio = {4, 6, 8, 0,, 4}. Por lo tanto, hemos obtenido un total de 5 conjuntos de datos. La Tabla resume las principales características de los conjuntos de datos, incluidas la relación de desequilibrio, es decir, el número de ejemplos no predeterminados dividido por el número de los casos predeterminados. Tabla. Algunas características de los conjuntos de datos utilizados en los experimentos. Tener en cuenta que estaban representadas todas las variables de entrada como valores numéricos 3.5 Reconocimiento de patrones en la predicción de riesgos en los costos de crédito. En el trabajo realizado por R. Alejo, A.I. Marqués, J.S. Sánchez y J.A. Antonio-Velázquez [4], donde se menciona que las aplicaciones prácticas de la evaluación del riesgo de crédito donde a menudo el tomar decisiones incorrectas en el ámbito financiero debido a la falta de datos suficientes por defecto. La difícil cuestión de la distribución de clases muy desigual entre clientes morosos y clientes no morosos se toma e a través de una solución algorítmica basada en el aprendizaje del costo razonable. El estudio se llevó a cabo en la red neuronal perceptrón multicapa, quién pertenece a la solución de aprendizaje supervisado, popular a través de tres funciones de costos de clasificación errónea, que se incorporan en el proceso de formación. Los resultados experimentales sobre los conjuntos de datos de crédito de la vida real muestran que las funciones de costos propuestos para formar una red de este tipo neural son muy eficaces para mejorar la predicción de los ejemplos que pertenecen a la (minoritaria) clase moroso Protocolo Experimental Se han tomado los conjuntos de datos para probar el rendimiento de las estrategias investigadas en el trabajo. Los conjuntos de datos australianos, alemanes y japoneses utilizados son de la base de datos del Fuente: Elaboración propia Fue adoptado un método de validación cruzada de 5 veces para estimar el rendimiento: Cada conjunto de datos se ha dividido en cinco bloques estratificados o pliegues de tamaño N / 5 (donde n denota el número total de ejemplos en el conjunto de datos). Posteriormente, cinco iteraciones de la formación y la 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9

129 prueba se realiza de tal manera que en cada iteración un pliegue diferente de los datos se lleva a cabo de salida para la prueba mientras que los cuatro pliegues restantes se utilizan para la formación el clasificador. En consecuencia, los resultados corresponden a la media de los cinco atributos calculados. Los cuatro modelos MLP diferentes se han aplicado a los conjuntos de entrenamiento desequilibradas. Para cada MLP que consiste en una capa oculta con cuatro neuronas, la tasa de aprendizaje y el impulso se han fijado en 0, y 0,0, respectivamente, mientras que la interrupción criterio ha sido fijada a cualquiera de épocas o MSE = 0,00. La mayoría de las aplicaciones de puntuación de crédito a menudo emplean la precisión de clasificación (ACC) y/o las tasas de error para estimar el rendimiento de los sistemas de aprendizaje. Sin embargo, evidencias empíricas y evidencias teóricas muestran que estas medidas son parciales con respecto a los datos de desequilibrio y las proporciones de las clasificaciones correctas e incorrectas. Para hacer frente a los problemas del desequilibrio de clases, el receptor de funcionamiento característico (ROC), se sugiere como una herramienta adecuada para la visualización y la selección de los clasificadores basados en hacer predicciones de riesgo de crédito precisas el equilibrio entre los beneficios (verdaderos positivos) y costos (falsos positivos). Una representación cuantitativa de una curva de ROC es el área debajo de ella (AUC). Por sólo una carrera de un clasificador, el AUC puede calcularse como AUC= (sensibilidad especificidad +) /, donde la sensibilidad es el porcentaje de malos ejemplos que se han predicho correctamente, mientras que la especificidad corresponde al porcentaje de buenos casos que se predijeron son buenos. 4. CONCLUSIONES En los trabajos anteriormente citados nos ayudan a comprender como el reconocimiento de patrones es una ciencia computacional que ayuda a solucionar problemáticas mediante el estudio de las clases representadas en diversas formas pero categorizadas en su estudio en tipos de aprendizaje que son el aprendizaje supervisado y no supervisado que ayudan a los investigadores hoy en día a utilizar cada vez más técnicas de reconocimiento de patrones en especial en lo relacionado con el aprendizaje no supervisado en el cual un experto humano no está al pendiente de los resultados obtenidos. Se espera que en un futuro no muy lejano se tengan noticias sobre nuevas expectativas en lo relacionado al reconocimiento de patrones. 5. REFERENCIAS [] L. A. Gonzalez-Naranjo, G. M. Vasquez y L. A. Ramírez Gómez, «End-Stage Renal Disease in Systemic Lupus Erythematosus,» Revista Colombiana de Reumatología, vol. 6, nº, pp. 75-8, 009. [] J. A. Franco Galván, «RECONOCIMIENTO DE VOZ PARA NIÑOS CON DISCAPACIDAD EN EL HABLA,» Universidad de las Americas de Puebla, Puebla, Puebla, 004. [3] Umoh, U.A, A. A. Umoh, G. G. James, U. U. Oton, J. J. Udoudo y E. B., «Design of Pattern Recognition System for the Diagnosis of Gonorrhea Disease,» International Journal of Scientific & Technologic Research, vol., pp. 5-8, 0. [4] J. Pérez León, J. H. Sossa Azuela y L. A. Villa Vargas, Tele-manipulación de objetos mediante un robot Khepera II, Vols. de c-30, México D.F.: CIC IPN, 009, pp [5] R. M. Valdovinos Rosas, Técnicas de Submuestreo, Toma de Decisiones y Análisis de Diversidad en Aprendizaje Supervisado con Sistemas Múltiples de Clasificación., Castelló de la Plana, España: Universitat Jaume I, 006. [6] J. A. Carrasco Ochoa y J. F. Martínez Trinidad, «Theory of Pattern Recognition,» Komputer Sapiens, vol. II, nº III, pp. 5-9, 0. [7] D. Pascual, F. Pla y S. Sánchez, «Algoritmos de agrupamiento,» Universida Jaume I, pp , 007. [8] X. Olvera-Rocha y M. Ortiz-Posadas, «Diagnóstico Diferencial de Glaucoma Mediante el Enfoque Lógico-Combinatorio de Reconocimiento de Patrones,» Serie Verde, pp , 0. [9] C. Soto y C. Jiménez, «APRENDIZAJE SUPERVISADO PARA LA DISCRIMINACIÓN Y,» scielo, vol., pp. 6-33, 0. [0] D. E. Pinto Avendaño, P. Rosso y H. Jiménez Salazar, Tratamiento de Textos Cortos: Agrupamiento y Evaluaci on, Valencia, España: Universidad Politécnica de Valencia, 007. [] O. Chapelle, B. Schölkopf y A. Zien, Semi- Supervised Learning, Massachusetts: The MIT Press, 006. [] A. Pazos, N. Pedreira, J. R. Rabuñal y J. Pereira, «Inteligencia Artificial y Computación Avanzada,» Inteligencia Artificial y Computación Avanzada, vol., nº 3, pp. 9-34, 007. [3] P. S.P Wang, Pattern Recognition, Machine Intelligence and Biometrics, Beijing, China: Higher Eduacation Press, Beijing, 0. [4] B. Verma y M. Blumenstein, «Fusion of Segmentation Strategies for Off-Line Cursive Handwriting Recognition,» Pattern Recognition Technologies and Applications: Recent Advances, vol., nº, pp. -6, 008. [5] S. Uchida, «Elastic Matching Techniques for Handwritten Character Recognition,» Pattern 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

130 Recognition Technologies and Applications Recent Advances, vol., nº, pp. 7-38, 008. [6] S. Makino y T. Wakahara, «Affine-Invariant Recognition of Face Images Using GAT Correlation,» in Proceedings of International Workshop on Advanced Technology 006, vol., pp , 006. [7] M. Williams, «Technology Review,» Better Face-Recognition Software, 30 Mayo 007. [En línea]. Available: [Último acceso: ]. [8] T. Shan, A. Bigdel y S. Chen, «Robust Face Recognition Technique for a Real-Time Embedded Face Recognition System,» Pattern Recognition Technologies and Applications: Recent Advances, vol., nº, pp. 88-, 008. [9] D. J. Hemanth y J. Anitha, «Tecniques for Pattern Recognition in Biomedical Image Processing Applications (IRMA),» Information Resources Management Association, vol., nº, pp. 7-76, 03. [0] L. Saldivar-Piñon, M. I. Chacon-Murguia, R. Sandoval-Rodriguez y J. Vega-Pineda, «Human Sign Recognition for Robot Manipulation,» Pattern Recognition, Lecture Notes in Computer Science 4th Mexican Conference, MCPR 0, vol. 739, pp. 07-6, 0. [] M. A. Moreno-Armendariz, S. Godoy-Calderón, H. Calvo y O. M. Rojas-Padilla, «Assessing the Quality Level of Corn Tortillas with Inductive Characterization and Digital Image Analysis,» Pattern Recognition, Lecture Notes in Computer Science 4th Mexican Conference, MCPR 03, vol. 794, pp , 03. [] C. Hee-su, J. Byung-oh, C. Sang-Hyun y P. Twae-kyung, «Feature Selection for Intrusion Detection using NSL-KDD,» Recent Advances in Computer Science, pp , 03. [3] J. A. C. Ochoa, «Reconocimiento de Patrones,» 004. [En línea]. Available: [Último acceso: 6 Agosto 04]. [4] R. Alejo, V. García, A. I. Marqués, S. J. S. y A.-V. J.A, «Making Accurate Credit Risk Predictions with Cost-Sensitive MLP Neural Networks,» Management Intelligent Systems, Advances in Intelligent Systems and Computing, vol. 0, pp. -8, 03. [5] Frank, A., Asunción, A.: UCI Machine learning repository (00), [6] Sabzevari, H., Soleymani, M., Noorbakhsh, E.: A comparison between statical and datamining methods for credit scoring in case of limited avalable data. In: Proc. the 3rd CRC Credit Scoring Conference (007). Juan Alberto Antonio Velázquez: Ingeniero en sistemas Computacionales con estudios de Maestría en Tecnologías de Cómputo en el Centro de Investigación y Desarrollo Tecnológico en Cómputo del Instituto Politécnico Nacional. Actualmente se desarrolla en el área de investigación en el Tecnológico de Estudios Superiores de Jocotitlán en la línea de investigación de Aplicaciones de minería de datos y reconocimiento de patrones para el apoyo en la toma de decisiones y aplicaciones de redes y sistemas distribuidos además de colaborar en el Centro Universitario de Ixtlahuaca. Roberto Alejo Eleuterio: Ingeniero en sistemas computacionales, con estudios de maestría en ciencias de la ingeniería en el Instituto Tecnológico de Toluca, además de doctorarse en la universidad Jaume I en Castello de la Plana España: Actualmente desarrolla trabajos de investigación en minería de datos y reconocimiento de patrones en el Tecnológico de Estudios Superiores de Jocotitlán en la línea de investigación de Aplicaciones de minería de datos y reconocimiento de patrones para el apoyo en la toma de decisiones y aplicaciones de redes y sistemas distribuidos además de colaborar en el Centro Universitario de Ixtlahuaca como profesor de posgrado en el programa de maestría en TIC s. Candidato a SNI Conacyt. Erika López González: Ingeniera en Computación con estudios de Maestría en Tecnologías de Cómputo en el Centro de Investigación y Desarrollo Tecnológico en Cómputo del Instituto Politécnico Nacional. Actualmente se desarrolla en el área de investigación en el Tecnológico de Estudios Superiores de Jocotitlán en la línea de investigación de Aplicaciones de minería de datos y reconocimiento de patrones para el apoyo en la toma de decisiones y aplicaciones de redes y sistemas distribuidos. Leopoldo Gil Antonio: Licenciado en electrónica con estudios de Maestría en Tecnologías de Cómputo en el Centro de Investigación y Desarrollo Tecnológico en Cómputo del Instituto Politécnico Nacional. Actualmente se desarrolla en el área de investigación en el Tecnológico de Estudios Superiores de Jocotitlán en la línea de investigación de Aplicaciones de minería de datos y reconocimiento de patrones para el apoyo en la toma de decisiones y aplicaciones de redes y sistemas distribuidos. Rosa María Valdovinos Rosas: Doctora en la universidad Jaume I en Castello de la Plana España. Profesor-Investigador de Tiempo Completo en la Facultad de Ingeniería de la UAEM en la División de Computación 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

131 DESARROLLO DE UN MODELO GA-MLP PARA EL DIAGNÓSTICO DE NEFROPATÍA DIABÉTICA BASADO EN INFORMACIÓN PROTEÓMICA EN ORINA Resumen En este trabajo se desarrolló un modelo basado en la estrategia algoritmo genético-red neuronal backpropagation para el diagnóstico no invasivo de nefropatía diabética basado en la información proteómica contenida en muestras de orina. Se seleccionaron 373 pacientes que presentan diabetes y 68 que presentan nefropatía diabética. El análisis de las muestras de orina y la obtención de los datos fue mediante espectrometría de masas y dio como resultado 500 péptidos distintos. Se utilizaron 30 biomarcadores péptidos más significativos, seleccionados mediante un algoritmo genético, con estos se desarrolló un modelo basado en la red neuronal backpropagation, utilizando como método de optimización el gradiente conjugado escalado en el ajuste de los pesos de la red y el método early-stopping para evitar el sobre entrenamiento. El modelo neuronal logró diagnosticar la nefropatía diabética con 97.7% de aciertos con una sensibilidad de 00% y especificidad de 97.6%. Los resultados de esta investigación sugieren que es factible el uso de un modelo neuronal entrenado con información proteómica para el diagnóstico de la nefropatía diabética. Mario Alberto González Avalos Ingeniero en Electrónica Instituto Tecnológico de Durango marioglezavalos@gmail.com Jesús Celis Porras Doctorado en Ciencias de la Computación Instituto Tecnológico de Durango jcelisp@gmail.com Francisco Javier Godínez García Doctorado en Ciencias en Ingeniería Bioquímica Instituto Tecnológico de Durango fgodinez@itdurango.edu.mx Palabras claves Algoritmos Genéticos, Nefropatía Diabética, Proteómica, Redes Neuronales.. INTRODUCCIÓN La diabetes mellitus (DM) es un conjunto de trastornos metabólicos [], que afecta a diferentes órganos y tejidos, como son los riñones; dura toda la vida y se caracteriza por un aumento de los niveles de glucosa en la sangre, el daño que el exceso de glucosa en sangre causa a las nefronas se llama nefropatía diabética., los principales síntomas son: a) Ascitis (acumulación de líquido en el espacio que existe entre el revestimiento del abdomen y los órganos abdominales) b) Edema de miembros inferiores c) Pérdida de apetito d) Cansancio La nefropatía diabética es responsable de cerca del 30% de los enfermos en diálisis periódica y la primera causa de trasplante renal en los países occidentales []. Las proteínas son partes vitales de los organismos vivos, ya que son los componentes principales de las rutas metabólicas de las células. La descripción del proteoma permite tener una imagen dinámica de todas las proteínas expresadas, en un momento dado y bajo determinadas condiciones concretas de tiempo y ambiente. El estudio y comparación sistemáticos del proteoma en diferentes situaciones metabólicos y/o patológicos permite identificar aquellas proteínas cuya presencia, ausencia o alteración se correlaciona con determinados estadios fisiológicos. En el caso concreto del análisis proteómico asociado a patologías concretas, es posible identificar proteínas que permitirían diagnosticar la enfermedad o pronosticar la evolución de la misma. Dichas proteínas se conocen con el nombre genérico de biomarcadores [3]. Las redes de neuronas artificiales (RNA) son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. El Primer modelo de red neuronal fue propuesto en 943 por McCulloch y Pitts en términos de un modelo computacional de "actividad nerviosa". El modelo de McCulloch-Pitts es un modelo binario, y cada neurona tiene un escalón o umbral prefijado [4]. Este primer modelo sirvió de ejemplo para los modelos posteriores de Jhon Von Neumann, Marvin Minsky, Frank Rosenblatt, y muchos otros. Cada neurona recibe una serie de entradas a través de interconexiones y emite una salida. Esta salida viene dada por tres funciones [5]:. Una función de propagación, que por lo general consiste en el sumatorio de cada entrada multiplicada por el peso de su interconexión (valor neto). Si el peso es positivo, la conexión se denomina excitadora; si es negativo, se denomina inhibitoria. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

132 . Una función de activación, que modifica a la anterior. Puede no existir, siendo en este caso la salida la misma función de propagación. 3. Una función de transferencia, que se aplica al valor devuelto por la función de activación. Se utiliza para acotar la salida de la neurona y generalmente viene dada por la interpretación que queramos darle a dichas salidas. Algunas de las más utilizadas son la función sigmoidea y la tangente hiperbólica. Las RNA tienen muchas ventajas debido a que está basado en la estructura del sistema nervioso, principalmente el cerebro. a) Aprendizaje: Las RNA tienen la habilidad de aprender mediante una etapa que se llama etapa de aprendizaje. Esta consiste en proporcionar a la RNA datos como entrada a su vez que se le indica cuál es la salida (respuesta) esperada. b) Auto organización: Una RNA crea su propia representación de la información en su interior, descargando al usuario de esto. c) Tolerancia a fallos: Debido a que una RNA almacena la información de forma redundante, ésta puede seguir respondiendo de manera aceptable aun si se daña parcialmente. d) Flexibilidad: Una RNA puede manejar cambios no importantes en la información de entrada, como señales con ruido u otros cambios en la entrada. e) Tiempo real: La estructura de una RNA es paralela, por lo cual si esto es implementado con computadoras o en dispositivos electrónicos especiales, se pueden obtener respuestas en tiempo real. Una aplicación común de las redes neuronales estáticas es la clasificación de patrones en clases. La capacidad de aprender con ejemplos y clasificar patrones, son cualidades de las redes neuronales multicapa que se han explotado en medicina, por ejemplo en [6]: Deficiencias en el sistema inmune y alergias Enfermedades oculares Detección de infartos Segmentación de imágenes del cerebro Diagnóstico de la enfermedad de Alzheimer. METODOLOGIA Utilizando una base de datos generada mediante la técnica de espectrometría de masas con muestras de orina de un total de 373 pacientes que presentan diabetes y 68 pacientes que presentan nefropatía diabética, se obtuvieron 500 péptidos distintos para representar el proteoma de bajo peso molecular del sistema bajo estudio. La reducción de dimensionalidad fue realizada mediante un algoritmo genético, estos corresponden a una de las distintas técnicas conocidas bajo el nombre de computación evolucionaria, que están inspiradas en el concepto de la evolución biológica. La idea principal es que cada individuo de una población representa una posible solución al problema de optimización que se desea resolver y de acuerdo a la adaptación de cada individuo al problema presentado (medida dada por una función objetivo determinada), se producirá la evolución de la población. Con ello se generan nuevas posibles soluciones que corresponderán al resultado de procesos de recombinación de los distintos individuos iniciales. También se puede considerar la introducción de nuevas soluciones realizando mutaciones sobre los individuos existentes [7]. El modelo de red neuronal usado es de la arquitectura perceptrón multicapa (MLP) entrenada mediante la regla de aprendizaje backpropagation [8] su correspondiente es la Ec. El perceptrón multicapa está formado por una capa de entrada, una capa de salida y una o más capas ocultas o intermedias; la información se transmita desde la capa de entrada hasta la capa de salida y cada neurona está conectada con todas las neuronas de la siguiente capa. ( ) ( ) () Donde: = Peso entre la neurona i y la neurona j. Numero de iteración. = Tasa de aprendizaje. = Error de la neurona j para el patrón p. = Error de la neurona i para el patrón p. = Momento. Como método de optimización se utilizó el gradiente conjugado escalado y el método early-stopping para evitar el overfitting o sobre entrenamiento. La metodología early-stopping consiste en realizar una pasada por los patrones del conjunto de validación después de cierto número de pasadas por los patrones del conjunto de entrenamiento, de forma que se pueda hacer un seguimiento tanto del error de entrenamiento como del de validación; cuando se aprecie un aumento apreciable del error de validación se detendrá proceso de entrenamiento de la red neuronal puesto que se puede asegurar que si se continuara, se produciría el overfitting con lo que la capacidad de generalización y predicción de la red se vería claramente perjudicada.. RESULTADOS La reducción de dimensionalidad se realizó usando un algoritmo genético con una tamaño de población de 0 individuos, después de 50 iteraciones arrojó como 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

133 resultado 30 biomarcadores significativos para el diagnóstico de nefropatía diabética. Se utilizó una red neuronal backpropagation, cuya arquitectura consistió en 0 neuronas en la capa oculta, con funciones de activación del tipo tangencial sigmoidales y neuronas en la capa de salida con funciones de activación del tipo exponencial normalizado (softmax), se entrenó la red con 33 señales de las cuales 93 corresponden a pacientes que presentan diabetes y 38 a pacientes que presentan nefropatía diabética, durante 9 épocas donde su mejor rendimiento fue para un error de para lo cual se utilizó como método de optimización el gradiente conjugado escalado en el ajuste de los pesos de la red y para evitar el sobre entrenamiento se utilizó el método early-stopping, con un grupo de validación de 66 señales. La figura muestra las curvas de rendimiento..la medicina es una ciencia de probabilidades y un arte de manejar la incertidumbre. Dicha incertidumbre se extiende no sólo a las actividades preventivas, terapéuticas y pronosticas sino también a las diagnósticas. (3) El modelo neuronal logró diagnosticar la nefropatía diabética con 97.7% de aciertos con una sensibilidad de 00% y especificidad de 97.6% a partir de un conjunto de prueba de un total de 53 señales. La figura muestra la matriz de confusión correspondiente. Figura Curvas de Rendimiento Fuente: Elaboración propia Figura Matriz de Confusión Es evidente que una buena prueba diagnóstica es la que ofrece resultados positivos en enfermos y negativos en sanos, es decir sensibilidad y especificidad. Sensibilidad Es la probabilidad de clasificar correctamente a un individuo enfermo, es decir, la probabilidad de que para un sujeto enfermo se obtenga en la prueba un resultado positivo. La sensibilidad es, por lo tanto, la capacidad del test para detectar la enfermedad. Es fácil estimar la sensibilidad como la proporción de pacientes enfermos que obtuvieron un resultado positivo en la prueba diagnóstica, su correspondiente es la Ec. De ahí que también la sensibilidad se conozca como fracción de verdaderos positivos (FVP). Especificidad Es la probabilidad de clasificar correctamente a un individuo sano, es decir, la probabilidad de que para un sujeto sano se obtenga un resultado negativo. En otras palabras, se puede definir la especificidad como la capacidad para detectar a los sanos, la especificidad se estimaría con la Ec. 3, de ahí que también sea denominada fracción de verdaderos negativos (FVN). () Fuente: Elaboración propia 3. CONCLUSIONES Y RECOMENDACIONES El uso de las redes neuronales es una gran opción para el diagnóstico de diferentes patologías; los resultados de esta investigación sugieren que es factible el uso de un modelo neuronal entrenado con información proteómica para el diagnóstico de la nefropatía diabética, facilitando así el trabajo clínico. Esta investigación solo demuestra que es posible el uso de redes neuronales en el ámbito del diagnóstico médico, para crear un modelo neuronal realmente aplicable se debe contar con una gran cantidad de sujetos de prueba, lo que lleva a un trabajo de investigación más completo. 4. REFERENCIAS [] Harrison, Principios de Medicina Interna, 6a edición 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

134 [] World Health Organization Department of Noncommunicable Disease Surveillance [3] Hanash SM, Pitteri SJ, Faca VM. Mining the plasma proteome for cancer biomarkers. Nature. 008 Apr 3;45(787):57-9. Review. PubMed PMID: [4] S. Y. Kung Digital neural networks, 993, PTR Prentice Hall, Inc. [5] C.Lau, Neural Networks, Theoretical Foundations and Analysis", 99, IEEE Press [6] Gorban, A.N. et al. Medical, psychological and physiological applications of multineuron neural simulator. Proceedings of the Secon Intemational Symposium on Neuroinformatics and Neurocomputers 995 [7] Holland J.H., Adaptation in natural and artificial systems, MIT Press, Cambridge, Second edition, 99. [8] S. Y. Kung, Digital neural networks 993 by PTR Prentice Hall, Inc. Mario Alberto González Avalos: Ingeniero en Electrónica por el Instituto Tecnológico de Durango, actualmente estudiante de Maestría en Ciencias en Ingeniería Electrónica en el Instituto Tecnológico de Durango. Áreas de interés: Procesamiento Digital de Señales, Redes Neuronales. Jesús Celis Porras: Doctorado en Ciencias de la Computación por el Centro de Investigación en Computación del Instituto Politécnico Nacional. Actualmente es profesor-investigador en el programa de posgrado de la Maestría en Ciencias en Ingeniería Electrónica del departamento de Ingeniería Eléctrica y Electrónica del Instituto tecnológico de Durango. Áreas de interés: Redes Neuronales, Redes Bayesianas, Algoritmos Genéticos. Francisco Javier Godínez García: Doctorado en Ciencias en Ingeniería Bioquímica por el Instituto Tecnológico de Durango, Maestría en Ciencias en Ingeniería eléctrica por el Instituto Tecnológico de la Laguna. Actualmente es profesor investigador en el programa de Maestría en Ciencias en Ingeniería Electrónica de Instituto Tecnológico de Durango. Áreas de interés: Procesamiento de Señales Eléctricas, Instrumentación y Control y Aplicación de Técnicas de Inspección Eléctricas (Ultrasonido, Infrarrojo, RF y Magnéticas). 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

135 MODELO BASADO EN UNA RED NEURONAL BACK PROPAGATION PARA LA DETECCIÓN DE VPH DE ALTO RIESGO A PARTIR DE INFORMACIÓN GENETICA Resumen Se desarrolló un modelo neuronal de diagnóstico del VPH de alto riesgo utilizando una base de datos con 09 señales recolectadas a partir de muestras de captura de híbridos de exudado vagin*l para lo cual se utilizó un dispositivo electrónico, el cual emite luz ultravioleta en el rango UV-A. El siguiente paso fue realizar el procesamiento de señales aplicando la transformada rápida de Fourier y se aplicó el algoritmo de análisis de varianza ANOVA. Se obtuvieron un total de 3 frecuencias significativas en cada señal. Por último se construyó la red neuronal back propagation, se entrenó con 8 señales. El modelo neuronal logró diagnosticar la presencia del VPH con 90.9% de aciertos con una sensibilidad de 00% y especificidad de 88.9%. A partir de los resultados obtenidos podemos concluir que el modelo neuronal podría ser una opción viable para el diagnóstico dela presencia del VPH. Palabras claves Anova, Red neuronal, Ultravioleta, VPH. Juan Andrés Díaz García Instituto Tecnológico de Durango andiaz@hotmail.com Jesús Celis Porras Instituto Tecnológico de Durango jpcelis@gmail.com Rubén Guerrero Rivera Instituto Tecnológico de Durango rubenguerrero@itdurango.edu.mx Elva Marcela Coria Quiñones Universidad Juárez del Estado de Durango emarco000@yahoo.com.mx. INTRODUCCIÓN El virus del papiloma humano (VPH) representa un importante problema de salud a nivel mundial ya que es la infección de transmisión sexual más común, existen más de cien tipos del VPH aunque solo 0 se consideran de alto riesgo por ser los causantes de diferentes tipos de cáncer principalmente el cáncer cervico-uterino []. En la actualidad existen diversos métodos para la detección del VPH como: a) Captura de híbridos: Aunque se ofrece de forma gratuita, tiene limitaciones como el gran número de falsos positivos y negativos. b) Reacción en Cadena de Polimerasa (PCR), técnica de patología molecular con la que se puede conocer exactamente el virus que causa la infección. c) Papanicolaou y la colposcopia, que son relativamente económicas, pero tienen sensibilidades del 5 y 38%, respectivamente. Las características de las redes neuronales las hacen bastante apropiadas para aplicaciones en las que no se dispone a priori de un modelo identificable que pueda ser programado, pero se dispone de un conjunto básico de ejemplos de entrada (previamente clasificados o no). Asimismo, presentan una alta tolerancia tanto al ruido como a la disfunción de elementos concretos. financiero, hacer predicciones de tiempo atmosférico, y recientemente han incursionado en el campo de la medicina logrando resultados aceptables en el diagnóstico e identificación de enfermedades [].. METOLOGÍA Se diseñó y construyó un dispositivo electrónico para el análisis de las señales el cual consiste en un LED que emite luz ultravioleta a una longitud de onda de 350nm y un fotodiodo UV además de una interface entre el dispositivo y la computadora para la visualización y captura de las señales (Figura ). La medición se realizó sobre muestras de captura de híbridos de exudado vagin*l que fueron colocadas una por una en una probeta de cuarzo donde se realizó la medición. Utilizando las señales que previamente fueron capturadas se construyó la base de datos con 09 muestras de las cuales 66 muestras contienen el virus del papiloma humano de alto riesgo y 43 contienen el virus del papiloma humano de bajo riesgo. Figura. Dispositivo Electrónico de Captura de Señales Las redes neuronales tienen aplicaciones en una amplia gama de campos esto incluye problemas de clasificación y reconocimiento de patrones de voz, imágenes, señales, etc. Asimismo se han utilizado para encontrar patrones de fraude económico, hacer predicciones en el mercado Fuente: Elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

136 Una vez construida la base de datos se procede a convertirla al dominio de la frecuencia utilizando la transformada rápida de Fourier (FFT) Ec.(). La base de datos en el dominio de la frecuencia nos aporta mayor cantidad de información y hace que la señal sea más descriptiva. Se prosiguió analizando la base de datos para determinar el tipo de distribución para esto se utilizó la prueba de normalidad q-q plot, obteniendo la gráfica de la figura donde se puede ver que la línea azul intenta seguir la línea punteada color rojo, esto nos indica que la distribución es normal sin embargo en los extremos tiende a separarse de la línea roja y esto indica que es una distribución normal sesgada. También se realizó la prueba de Bartlett para determinar la hom*ogeneidad en las varianzas Ec. (). Figura 3. Grafica Q-Q Plot () Por último se construyó un modelo basado en la red neuronal back propagation, se entrenó con 8 señales, 48 de bajo riesgo y 34 de alto riesgo, se realizaron corridas de la modelo comenzando con una neurona en la capa oculta e incrementando el número de neuronas hasta obtener un modelo con una predicción aceptable, para disminuir el error se utilizó como método de optimización gradiente conjugado escalado en el ajuste de los pesos de la red y el método de detección temprana, para evitar el sobre-entrenamiento, se utilizó un grupo de validación de 6 señales, de bajo riesgo y 5 de alto riesgo [5]. La intención de este trabajo no es reemplazar a los métodos ya existentes únicamente se propone un método alternativo de diagnóstico del VPH de alto y bajo riesgo utilizando un modelo neuronal back propagation basado en la información genética contenida en las frecuencias del espectro de Fourier a partir de señales en el rango de UV-A. (3) 3. RESULTADOS Los resultados que arrojaron la prueba de normalidad Q- Q Plot y la prueba de Bartlett indicaron que la distribución es normal y con varianzas iguales por lo que se tomó la decisión de utilizar el algoritmo ANOVA como selector de características. Fuente: Elaboración propia Una vez que se conoce el tipo de distribución se puede tomar una decisión respecto a que método de selección de características utilizar. Para realizar una extracción de características con la finalidad de seleccionar únicamente las frecuencias importantes en la señal desechando las que no aportan información útil para esto aplicamos el algoritmo de análisis de varianza ANOVA Ec. (3) el cual es utilizado para establecer si existen diferencias significativas en las medias entre dos o más muestras. Su nombre deriva del hecho que las varianzas son usadas para establecer las diferencias entre las medias [3][4]. () Con la aplicación del algoritmo ANOVA se logró extraer 3 frecuencias importantes de 04 que se tenían inicialmente, la arquitectura de la red con la que se obtuvieron los mejores resultados consistió en 0 neuronas en la capa oculta, con funciones de activación del tipo tangencial sigmoidales y neuronas en la capa oculta con funciones de activación del tipo tangencial sigmoidales, el método de optimización logró reducir el error a (Figura 3), el modelo neuronal logró diagnosticar la presencia del VPH con 90.9% de aciertos con una sensibilidad de 00% y especificidad de 88.9% a partir de un conjunto de prueba de un total de señales, 9 de bajo riesgo y de alto riesgo (Figura 4). Figura 6. Grafica de entrenamiento de la red neuronal Fuente: Elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

137 4. CONCLUSIONES Figura 7. Matriz de confusión. Fuente: Elaboración propia A partir de los resultados obtenidos podemos concluir que el modelo neuronal podría ser una opción viable para el diagnóstico dela presencia del VPH. 5. REFERENCIAS [] M. Castaño Ignacio, G. Hurtado Estrada, Test de VPH (captura de híbridos II) en pacientes tratadas con radiofrecuencia, Vol. IV, No. enero-abril 0 pp 3- [] R Dybowski, V Gant, Artificial neural networks in pathology and medical laboratories, The Lancet, Volume 346, Issue 8984, 4 November 995, Pages 03-07, ISSN , [3] P. Duhamel, M. Vetterli, Fast fourier transforms: A tutorial review and a state of the art, Signal Processing, Volume 9, Issue 4, April 990, Pages 59-99, ISSN , [4] Paul Pavlidis, Using ANOVA for gene selection from microarray studies of the nervous system, Methods, Volume 3, Issue 4, December 003, Pages 8-89, ISSN [5] Baxt WG. Use of an Artificial Neural Network for the Diagnosis of Myocardial Infarction. Ann Intern Med. 99;5: doi:0.736/ Juan Andrés Díaz García: Ingeniero en Electrónica, estudiante de la Maestría en Ciencias en Ingeniería Electrónica en el Instituto Tecnológico de Durango. Jesús Celis Porras. Doctorado en Ciencias de la Computación por el Centro de Investigación en Computación del Instituto Politécnico Nacional. Actualmente es profesor-investigador en el programa de posgrado de la Maestría en Ciencias en Ingeniería Electrónica del departamento de Ingeniería Eléctrica y Electrónica del Instituto tecnológico de Durango. Áreas de interés: Redes neuronales, Redes Bayesianas, Algoritmos Genéticos. Elva Marcela Coria Quiñones. Maestría en Química Analítica Aplicada en la Universidad Regiomontana de Monterrey. Actualmente somos colaboradora en el Instituto de Investigación Científica de la Universidad Juárez del Estado de Durango. Áreas de Interés Manejo y Determinaciones mediante equipos instrumentales aplicados a la Química Analítica. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8

138 INTERFAZ DE RECONOCIMIENTO DE MOVIMIENTOS PARA EL LENGUAJE DE SEÑAS MEXICANO IMPLEMENTANDO EL KINECT Resumen Con el avance de la tecnología y el desarrollo de nuevas aplicaciones que facilitan la vida cotidiana son más empleadas, por tal motivo en este trabajo se estudió el lenguaje de señas, ocupando principalmente palabras y el abecedario utilizando los movimientos más comunes para desarrollar una interfaz interactiva que traduzca palabras del lenguaje de señas mexicano al idioma español, lo que es un preámbulo al desarrollo de una interfaz terapéutica para el área de gerontología, usando la tecnología del kinect de Microsoft; la metodología empleada para el desarrollo, es scrum que es ágil y flexible para gestionar el desarrollo de software. Palabras claves kinect, reconocimiento Erika López González Tecnológico de Estudios Superiores de Jocotitlán lz_erika_gz@yahoo.com.mx Juan A. Antonio Velázquez Tecnológico de Estudios Superiores de Jocotitlán juanjonatan@yahoo.com.mx Roberto Alejo Eleuterio Tecnológico de Estudios Superiores de Jocotitlán ralejoll@hotmail.com Leopoldo Gil Antonio Tecnológico de Estudios Superiores de Jocotitlán lgilant7@yahoo.com.mx. INTRODUCCIÓN Uno de los dispositivos que ha surgido en la actualidad es el Microsoft kinect, el objetivo de este trabajo es utilizar esa tecnología para generar una interfaz traductora de palabras del lenguaje de señas que sirva como base en la toma de movimientos para las terapias que se aplican en la Gerontología y puedan ofrecer una mejor calidad de vida al adulto mayor. La universidad CES de Colombia publicó el artículo Traducción automática del lenguaje dactilológico de sordos y sordomudos mediante sistemas adaptativos. En este artículo se presenta el desarrollo de un sistema integrado de hardware y software, para el reconocimiento automático del lenguaje dactilológico de señas Betancur B.D[ ]. El hardware está compuesto por un sistema inalámbrico adherido a un guante, el cual posee un conjunto de sensores que capturan una serie de señales generadas por los movimientos gestuales de la mano, y un modelo por adaptación basado en los principios de la computación neuronal, el cual permite su reconocimiento en términos de un lenguaje dactilológico en particular. Los resultados arrojados por el sistema integrado mostraron gran efectividad en el reconocimiento de las vocales que conforman el lenguaje dactilológico en español, esto gracias a la capacidad que posee el modelo de asociar un conjunto de señales de entrada, sin embargo la principal desventaja que presenta este proyecto es el uso del guante dactilológico ya que es un dispositivo construido por múltiples sensores en cada dedo, lo cual hace que la fabricación y uso de dicho dispositivo no sea rentable y el coste sea mayor. Microsoft también tiene en desarrollo programas para ayudar a ciegos y sordos en el Centro de Investigación de Microsoft en India Escandell D.[], los programas tienen dos objetivos, uno de ellos es traducir las señas realizadas por un usuario a texto, y otra es representar en el monitor el texto introducido por un usuario mediante imágenes, Onís, es un proyecto argentino desarrollado por 5 alumnos, el cual principalmente tiene los mismos objetivos que los proyectos desarrollados por Microsoft. Además Daniel Martínez Capilla de la Universidad de Tennessee desarrollo un Traductor del Lenguaje de Señas usando Microsoft Kinect XBOX 360 basándose en los movimientos del cuerpo y estos los obtiene con la ayuda de la API Skeleton la cual simula el cuerpo y permite identificar los movimientos Martínez C.D. [3]. En México no se han difundido proyectos implementando el Kinect, se ha optado por otras alternativas como el uso de un guante electrónico que transforma movimientos de la mano en palabras que aparecen escritas en una pantalla de cristal líquido desarrollado por alumnos del Instituto Politécnico Nacional (IPN) Becerril D.J et.al. [4]. Una de las principales limitaciones que presentan las personas con discapacidad auditiva está directamente relacionada con su dificultad para interactuar con otras personas, ya sea de forma verbal o a través de sistemas auxiliares basados en voz y audio. Por consecuencia la 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9

139 dificultad que la práctica y el uso del lenguaje de señas, obstaculizan establecer una comunicación por parte de los educandos con discapacidad auditiva, se propone un software interactivo por medio de kinect que ayude a practicar el lenguaje de señas por medio de reconocimiento de movimientos.. TÉCNICAS El kinect es un dispositivo creado por Microsoft para su videoconsola Xbox 360. Permite a los usuarios controlar e interactuar con la consola sin necesidad de tener contacto físico con un controlador de videojuegos tradicional, mediante una interfaz natural de usuario que reconoce gestos, comandos de voz, y objetos e imágenes. El sensor Kinect es capaz de capturar el mundo que lo rodea en 3D mediante la combinación de la información obtenida de la cámara RGB y del sensor de profundidad. El resultado de esta combinación es una imagen RGB-D (color + profundidad) con una resolución de 30x40, donde a cada uno de los píxeles se le asigna dicha información. Microsoft [6]. El nombre Scrum deriva de una analogía con el Rugby: en este deporte se llama Scrum una manera de reiniciar rápidamente el juego cuando se haya interrumpido por alguna infracción accidental, así Scrum se ha desarrollado anteponiendo las prioridades de unos proyectos concretos a las reglas de la Ingeniería del Software. Scrum es una metodología ágil y flexible para gestionar el desarrollo de software, Softeng [8].. PRODUCT BACKLOG En esta fase del proyecto se determinaron y analizaron las principales ideas y se priorizaron, en este sentido el conocer la estructura básica y nomenclatura del lenguaje de señas estándar en México; trabajar con una implementación adecuada del Kinect como herramienta para leer el lenguaje de señas. 3 Gb Memoria RAM. Skeletal Tracking que permite reconocer el cuerpo y seguir acciones.[9] Api Skeleton. SkeletonFrame. Shape (es un UIElement de windows para dibujar formas, con el se dibujaron las líneas). SPRINT PLANNING En esta parte del trabajo se realizó un estudio sobre el lenguaje de señas estándar de México (LSM) fundamentado en el DIELSELME (Diccionario Español de Lengua de Señas Mexicano) que establece un total de 535 palabras del español las que asocian 608 señas. Como parte inicial del trabajo se ejecutó el código de SkeletonBasics-WPF de esta manera se exhiben los elementos que componen un traking default del Kinect. Se identificaron 0 elementos, figura, sin embargo el lenguaje de señas mexicano trabaja con la parte superior del cuerpo es por ello que se hace notoria la importancia de ésta, generando una nueva manera de traking considerando los siguientes: a) HAND_RIGHT, b) WRIST_RIGHT, c) ELBOW_RIGHT, d) SHOULDER_RIGHT, e) HAND_LEFT, f) WRIST_LEFT, g) ELBOW_LEFT, h) SHOULDER_LEFT, i) HEAD, j) SHOUL_DERCENTER, k) SPINE, l) HIP_CENTER. Figura. SkeletonBasics-WPF Así mismo diseñar una aplicación capaz de almacenar configuraciones del lenguaje de señas obtenidas del modelo virtual que a la vez obtiene las configuraciones de una persona haciendo uso del Kinect. Generar un software interactivo traductor de palabras del lenguaje de señas mexicano como ayuda, usando como herramienta el Kinect, considerando que es una aplicación de bajo costo y mejora la interacción entre el usuario y el software en comparación con la aplicación del guante dactilológico. También fueron usados los siguientes requerimientos: Microsoft Visual Studio Ultimate 03. Kinect de primera generación. Kinect for Windows developer Toolkit v.8.0. Windows 7 Professional. Procesador Intel Core i3.40 GHz. Fuente: Realización propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 30

140 Los movimientos son llamados formas en el lenguaje de señas los cuales son recibidos por el Kinect, el cual maneja los movimientos de un modelo virtual de la persona. Figura. Matriz corporal y manejo de oscilación Los elementos que se utilizaron para el traking, se trabajan de forma individual lo que representa mayor tiempo para plasmarlos de manera gráfica por las propiedades que presentan, además de causar un mayor consumo de recursos por parte del sistema operativo, al estar al tanto de esta situación, y como propuesta se crean 4 arreglos para el traking con los elementos necesarios ya que se reduce el tiempo de traking, por ende se disminuye la carga de trabajo para el sistema operativo y los elementos por cada arreglo fueron: Arreglo Extremidad Derecha: HandRight, WristRight, ElbowRight, ShoulderRight. Arreglo Extremidad Izquierda: HandLeft, WristLeft, ElbowLeft, ShoulderLeft. Arreglo 3 Torso: Head, ShoulderCenter, Spine, HipCenter. Arreglo 4 Hombros: ShoulderLeft, ShoulderCenter, ShoulderRight..3 Sprint Backlog Se asignaron diferentes tareas y se revisan los avances citados adelante. Para generar una salida a color, se ocupa la cámara RGB la cual ejecuta la lectura frente al sensor Kinect, pero esto involucro hacer un mapeo, ya que existe una separación física entre ambas cámaras (Profundidad y RGB) lo que no permite que las lecturas estén alineadas de una manera exacta, por lo que se utilizo el método: CoordinateMapper.MapSkeletonPointToColorPoint que proporciona el Kinect. Las articulaciones del cuerpo del kinect no son estables, la mayor parte del tiempo está oscilando y la razón son las condiciones óptimas de iluminación, por ello se agregó un rango de aceptación a la trayectoria. Una matriz que divide el área del cuerpo exactamente en 6 partes para conocer la posición en la que se encuentran las manos en el plano gesto espacial y que al mismo tiempo permita el control de manera gradual de la oscilación presentada, la tolerancia de 5 unidades cardinales para que sea efectivo el cambio de posición, si la lectura de la mano derecha se toma en la posición número y esta se mueve dentro del rango permitido la lectura se efectuara pero continuara estando en la posición del arreglo, lo que se observa en la figura. Fuente: Realización propia Para el trabajo con el tracking de los dedos se propone trabajar con 3D Hand and Finger Recognitionusing kinect el cual describe un método robusto y eficiente para realizar un seguimiento de la mano y los dedos en tiempo real utilizando el dispositivo kinect. Este dispositivo permite obtener una imágen de profundidad, en lugar de una imágen normal RGB, lo que da más información que una cámara normal. Este tipo de imágenes son más útiles para el seguimiento y, se representar los puntos relevantes en un espacio 3D. Los procedimientos necesarios para realizar un seguimiento de las manos con sus respectivos componentes (palma y punta de los dedos) propuestos en el trabajo de F. Trapero Cerezo. Lo primero fue trabajar con la profundidad, para esto se basa en la proximidad del kinect y en los pixeles de la cámara, considerando adaptar la resolución de 30x40 pixeles, porque da la suficiente definición para distinguir el contorno de las manos, lo que reduce considerablemente el número de operaciones, así mismo, se generó una matriz que contiene los pixeles e indica la cercanía de los mismos, permitiendo acceder a los datos de una manera más fácil. Para el contorno de la mano, se calcula aplicando el "algoritmo de la tortuga, una vez que un punto se añade al contorno de una parte, este punto se marcará como visitado. Así que, después de terminar el contorno de una parte, la aplicación busca otro punto del contorno para calcular el contorno ordenado de la otra mano. Si todo el contorno de puntos se ha visto, no hay más manos para analizar. Si el contorno es pequeño en comparación con el número total de puntos de contorno, se debe descartar. Posteriormente se continúa con el centro de la palma, que es uno de los puntos que proporciona mucha de la información. Este punto indica dónde está la mano, junto con las yemas de los dedos, puede ser utilizado para calcular información relevante para identificar gestos. El centro de la mano es, por lo general, el círculo mayor que cabe dentro del contorno de la mano. Con el fin de encontrar este punto, se calculan las distancias mínimas de cada interior que apunta a cada punto del contorno, y desde estas distancias se selecciona el máximo, como se observa en la figura 3. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

141 Figura 3. Cálculo del centro de la palma de la mano. En el trabajo del traqueo de las manos se ha obtenido el conteo de los números del al 0 y las letras del abecedario, la interpretación del lenguaje dactilológico ejecuta un conteo de los dedos identificados que se involucran al momento de la ejecución de la seña, esto se muestra en la figura 5, sección a) se asigna un identificador para cada dedo de ambas manos esto para comparar la cantidad e identificar los que forman parte del conteo y asignar un significado al momento de la lectura de la seña; sección b) con el mismo principio se realiza la interpretación de las letras que conforman el abecedario. Figura 5. Señales dactilológicas Fuente: Realización propia 3. RESULTADOS Y DISCUSIONES Como parte de los resultados parciales utilizando los arreglos antes descritos para captar las partes superiores del cuerpo y asociando los patrones de posición se logran ejecutar las palabras, donde la trayectoria del movimiento es la misma con ambos brazos, la asociación de patrones de posiciones con palabras será mostrada una vez que coincida con los movimientos corporales capturados por el kinect; en la figura 4, donde se observa este resultado. Figura 4. Palabras capturadas a) Conteo de dedos (números). b) Letras Fuente: Realización propia 4. CONCLUSIONES Y RECOMENDACIONES Se conoció el lenguaje de señas y la variación que se tiene en la región de Ixtlahuaca, del mismo modo se realizó un ambiente para poder interpretar las lecturas a un ambiente gráfico y tener un medio de visualización para identificar los comportamientos del software en ejecución también se interpretaron palabras usando ambas manos. Así mismo se formó el traqueo de los dedos de las manos, hasta el grado de hacer un conteo, identificar números y letras. Hasta el momento se han logrado resultados favorables, contar con la traducción de señas en donde la dactilología de las manos no se encuentra notable, ha permitido lograr un éxito y un alcance vial para la continuidad y vida del proyecto, sin embargo se pretende alcanzar la traducción de las señas dividendo cada una de ellas por campos semánticos y trabajarlo con prioridades según las técnicas de aprendizaje sobre el lenguaje de señas. 5. RECOMENDACIONES Fuente: Realización propia Las soluciones técnicas utilizadas aún son iníciales es necesario implementar filtros digitales para reducir el temblor, algunas técnicas de segmentación más robustas 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

142 y sobre todo sistemas de reconocimiento más robusto. Hace falta mucho por hacer. 6. REFERENCIAS [] Betancur B.D; Vélez G. M; Peña P. A. Traducción automática del lenguaje dactilológico de sordos y sordomudos mediante sistemas adaptativos [online]. (03) p.-3. [] Escandell D. Microsoft desarrolla programas para ayudar a ciegos y sordomudos con Kinect [Internet] (0). [Acceso 3 de febrero 04]. [3] Martínez C. D. Sign Language Translator using Microsoft Kinect XBOX 360 [online] p.-75. (0) [Acceso 5 de febrero 04]. [4] Becerril D. J; Cerda G. L; Nieto S. D. IPN diseña guante electrónico para sordo-mudos. (008) [Acceso de marzo 04]. [5] Calvo H. M. T. Diccionario español - Lengua de señas mexicana (DIELSEME) p.-48. [Acceso 8 de Febrero 04]. [6] Microsoft (04) Visual C# [Acceso 7 de marzo 04]. [7] Rossum V. Python. (00) [Acceso de marzo]. [8] Softeng Metodología Scrum. (04) [Acceso 0 de marzo 04]. [9] Softeng Metodología Scrum. (04) [Acceso 0 de marzo 04]. [0] Comunidad OpenKinect, librerías de código abierto para Kinect [Acceso 9 de marzo 04].disponible en: openkinect.org/wiki/main_page. [] Kinect for Windows [Acceso 9 de marzo 04]. Disponible en: for Windows/ Erika López González: Ingeniero en Computación con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con 8 años de experiencia. Juan A. Antonio Velázquez: Ingeniero en sistemas computacionales con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con más de 9 años de experiencia. Roberto Alejo Eleuterio: Ingeniero en Computación con estudios de Maestría en Ciencias Ciencias Computacionales y Doctorado en Sistemas Informáticos Avanzados. Profesor a nivel licenciatura y posgrado con más de 0 años de experiencia. Leopoldo Gil Antonio: Ingeniero en Electrónica y de Comunicaciones con estudios de Maestría en Tecnología de Computo por el Instituto Politécnico Nacional. Profesor a nivel licenciatura con más de 0 años de experiencia. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 33

143 ESTRATEGIA DE PARALELIZACIÓN BASADA EN REDUCIONES PARALELAS PARA RENDERSCRIPT Resumen-- RenderScript es un conjunto de herramientas diseñadas por Google para soportar el procesamiento paralelo en los dispositivos móviles con Android. Esta herramienta fue diseñada principalmente para su ejecución en diversos componentes de procesamiento como: Unidades Centrales de Procesamiento (CPU s por sus siglas en inglés), Procesadores Digitales de Señales (DSP s por sus siglas en inglés) y Unidades Gráficas de Procesamiento (GPU s por sus siglas en inglés)para lograr la portabilidad entre distintos dispositivos móviles.se diseñó con un motor de ejecución o runtime que decide dónde y cómo ejecutar el código en paralelo; también se le puede indicar que ejecute el código en una GPU o DSP disponible utilizando FilterScript que una herramienta de RenderScript que garantiza la compatibilidad con GPU s y DSP s. RenderScript es una plataforma de cómputo heterogéneo que difiere tanto en la codificación como en la abstracción del problema a otras plataformas actualmente usadas como OpenCL y CUDA. Sin embargo, este nuevo paradigma de paralelización no cuenta con estrategias claras para la implementación de algoritmos, por lo que en este trabajo se proponen distintas estrategias para la implementación de algoritmos como por ejemplo reducciones en vectores entre otros. JESÚS ALVAREZ-CEDILLO JUAN HERRERA-LOZADA Instituto Politécnico Nacional, CITEDI, Av. del Parque No. 3O, Mesa de Otay, Tijuana, Baja California, México. jalvarez@ipn.mx jlozada@ipn.mx JACOBO SANDOVAL-GUTIERREZ TEODORO ALVAREZ- SANCHEZ Instituto Politécnico Nacional CIDETEC UP Adolfo López Mateos Edif. CIDETEC México D.F., México. jsandovalg@gmail.com talvarez@citedi.mx Palabras claves-- Procesamiento paralelo, RenderScript, unidades de procesamiento gráfico, GPU, Reducción... INTRODUCCIÓN Un procesador vectorial es un procesador que puede calcular un valor entero en una instrucción. Un operando vectorial de operación exclusiva de memoria contiene una secuencia de n elementos, llamados componentes, donde n es la longitud del vector. Cada componente del vector es un escalar de cualquier tipo (entero, punto flotante, etc.). Los operadores vectoriales generalmente están clasificados en los siguientes: Una simple instrucción vectorial sustituye a muchas escalares, precisan acceso a la memoria con un patrón de acceso fijo (adyacentes). Se evita un problema en control del salto del bucle. Son operaciones más rápidas. En este artículo se elaborón dos estrategias para realizar operaciones vectorial binarias V V sobre dispositivos mobiles (Smarthphones y Tablets) utilizando RenderScript. V V (operación vectorial unitaria) V V V(operación vectorial binaria) V K(reducción unitaria) V V K(reducción binaria) K V V (operación de escalado) Donde K= valor escalar y V= operación vectorial. Una instrucción vectorial equivale generalmente a la ejecución de un bucle completo de instrucciones donde cada iteración trabaja sobre cada componente individual del vector. Las operaciones vectoriales en memoria son mejores que las escalares por: Cada resultado es independiente Qué es RenderScript? RenderScript es un Framework para realizar cómputo del alto rendimiento orientado al procesamiento paralelo sobre dispositivos móviles con sistema operativo Android. RenderScript está diseñado para ejecutar los algoritmos en paralelo en todos los procesadores disponibles como: los CPU s multinúcleo, GPU so DSP s. Algunas aplicaciones pueden desarrollarse utilizando el procesamiento de propósito personal, como la visión computacional o procesamiento de imágenes. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 34

144 Las aplicaciones que utilizan RenderScript se ejecutan dentro de la máquina virtual de Android, por lo cual se utiliza la Interfaz de programación de aplicaciones (API) de Java para manejar la vida de los recursos de RenderScript y controlar la ejecución del kernel [3]. RenderScript representa un conjunto de herramientas y un lenguaje de alto nivel para realizar cómputo intensivo de procesamiento paralelo sobre dispositivos con Android, en combinación con la programación secuencial genera beneficios y optimizar los procesos que se ejecutan en su modelo de ejecución. RenderScript realiza la distribución de los trabajos a través de diferentes hilos y optimiza el uso de todos los procesadores disponibles sobre dispositivo, las unidades de procesamiento gráfico (GPU), DSPS y las unidades de procesamiento centra (CPU) y soporta múltiples CORES. RenderScript crea algoritmos perfectamente balanceados en su carga, de esta manera cualquier aplicación de propósito general podrá realizarse y ejecutarse utilizando ampliamente los recursos del dispositivo móvil. La programación de RenderScript está basada en los partes básicas: Uso de de núcleos de cómputo de alto desempeño, estos se escriben sobre un lenguaje derivado de C99. una interfaz de aplicación desarrollada en el lenguaje de programación Java FilterScript FilterScript es un subconjunto de RenderScript el cual contiene restricciones para poder funcionar en una gran variedad de procesadores (CPU s, GPU s, DSP s). En FilterScript los punteros no están permitidos, por lo cual no se puede leer la memoria directamente y se tienen que usar funciones de acceso de la API de RenderScript [].. Modelo de ejecución La arquitectura de un dispositivo móvil tiene grandes diferencias a otros sistemas paralelos grandes tales como un sistema de escritorio o un sistema de alta disponibilidad. La comunicación entre el CPU y el CPU a través de la memoria Mobile DDR, mddr o LPDDR, (es un tipo de DRAM síncrona de doble precisión especial para dispositivos móviles), se realiza a Gb/s y el conjunto de instrucciones soporta hasta 70 GFLOPS en el GPU y hasta 0 GFLOPS en el CPU. Observe la figura. Su funcionamiento es el siguiente: El código de ejecución se programa en un lenguaje basado en c99 y es compilado con un formato intermedio. El código encapsulado o KERNEL es procesado y crea un código binario no dependiente de la arquitectura. Una rutina compila el código binario anterior para uno o más procesadores. Los encapsulados especiales, son integrados de acuerdo a las necesidades de programador para algunas operaciones comunes. Las clases de JAVA son creadas automáticamente por el Kit de desarrollo. La administración de los recursos y la ejecución son controladas por las interfaces de aplicación de Java. Se realiza la integración con la máquina virtual, se integra en un archivo ejecutable el binario del encapsulado y el código de control en Java como aplicación. Figura. Arquitectura de un dispositivo móvil. Fuente: Elaboración propia.. TRABAJO REALACIONADO Actualmente existen algunas propuestas de cómo codificar en RenderScript a partir de otras plataformas de cómputo heterogéneo, sin embargo no plantean directamente una estrategia de programación que aproveche todas las herramientas de RenderScript. Dentro de las propuestas existentes para la codificación en RenderScript se encuentra Code generation for emebedded heterogéneous architectures on android [], en donde los autores proponen utilizar el Framework HeterogeneousImageProcessingAcceleration(HIPA) para generar kenerl s para el procesamiento de imágenes y adaptarlos a la estructura de RenderScript. La segunda propuesta de codificación Orender: An OpenCL-to Render script translator for porting across various GPUs or CPUs [] es sobre la implementación de un traductor de código OpenCL a RenderScript. Al analizar los trabajos previos sobre la codificación en RenderScript queda claro que no se pueden exportar automáticamente todas las características de las plataformas de cómputo heterogéneo a RenderScript y que no se aprovechan óptimamente los recursos. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 35

145 3. METODOLOGIA Algunos algoritmos requieren que a partir de un conjunto de datos entrada se reduzca el número de elementos del conjunto de salida; algunos ejemplos de estas operaciones son: el promedio, la suma acumulativa, el máximo, entre otros.a este tipo de operaciones dentro del procesamiento paralelo se les conoce como operaciones de reducción. Al realizar este tipo de operaciones en arquitecturas paralelas se tiene el problema de que los hilos de ejecución en paralelo no se pueden escribir en una localidad de memoria al mismo tiempo. La dificultad intrínseca de este tipo de operaciones en paralelo se mezcla con las limitaciones de la plataforma paralela. En RenderScript y en FilterScript se complican las operaciones de reducción ya que un kernel de ejecución requiere que la longitud de los datos de entrada debe ser igual a la de los datos de salida. Otra limitación importante es que no se tiene control sobre cuantos hilos de ejecución se invocan y solo se puede modificar esta característica variando la longitud de los datos de entrada y salida. Al analizar los trabajos existentes se evidencia la necesidad de generar nuevas estrategias de programación para la plataforma de cómputo paralelo móvilde RenderScript y FilterScript siendo las operaciones de reducción una de las más complicadas de implementar, por lo que en este trabajo se plantean algunasestrategias para la implementación de operaciones de reducción. 3. Solución propuesta Los códigos en RenderScript que ejemplifican las estrategias programación están diseñadas para la API de Android 4. en adelante. Para dar solución a las operaciones de reducción en RenderScript se plantean tres estrategias posibles, estas son ejemplificadas con la suma acumulativa de un vector de flotantes en RenderScript y FilterScript. 3. Estrategia La primera estrategia, consiste en limitar las localidades de memoria sobre las que se ejecutan los hilos por medio de su ID de hilo. Ventajas: a) Se realiza sobre las mismas localidades de memoria. b) Facilidad de abstracción. c) El Kernel en RenderScript se puede llamar recursivamente hasta la condición de paro. Desventajas: Se desperdician hilos de ejecución. El Kernel en RenderScriptse escribiría como lo muestra el siguiente código (figura ): Figura. Kernel en RenderScript con estrategia intsize; void root(int3_t *v_out, uint3_t x,uint3_t y) { if (x < divisor) v_out[y] += v_out[size-y]; }. Fuente: Elaboración propia El Kernel en FilterScriptse escribiría como lo muestra el siguiente código (figura ): Figura. Kernel en FilterScript con estrategia int size; rs_allocation input; float attribute ((kernel)) root(uint3_t x) { if(x < size) return rsgetelementat_float(input,x)+rsgetelementat_float(in put,size-x) ; return 0; } 3.3 Estrategia Fuente: Elaboración propia La segunda estrategia consiste en aprovechar las estructuras de datos proporcionadas por FilterScript y RenderScript.Aunque las estructuras de entrada y salida tienen que ser del mismo tamaño no necesariamente debe ser del mismo tipo de dato. Ventajas: a) Se aprovechan todos los hilos invocados. b) Se aprovecha toda la memoria reservada. c) Desventajas: d) Hay que cambiar el tamaño de memoria para cada reducción. e) Hay que adaptar el algoritmo a las estructuras de datos. En este caso el Kernel en RenderScript y FilterScript el código sería el siguiente (figura 3): 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 36

146 Figura 3. Kernel en RenderScript y FilterScript con estrategia. float attribute ((kernel)) root(const float v_in,uint3_t x) { return v_in[0]+v_in[]; } Figura 5. Comparativo de los resultados Obtenidos Fuente: Elaboración propia 4. RESULTADOS Y DISCUSIONES Con las estrategias propuestas en la sección anterior se implementó la Serie de Mercator (ecuación ) para el cálculo del logaritmo natural. Se eligió este ejemplo porque el cálculo de las potencias en la GPU es altamente costoso. En el siguiente código (figura 3) se muestra el Kernel para el cálculo de los valores de la sumatoria: Figura 4. Kernel para el cálculo de los valores float attribute ((kernel)) root(uint3_t x) { float resultado; int id = x+; resultado[0] = alter(id)*(pown(n,id)/id); id = total-x; resultado[] = alter(id)*(pown(n,id)/id); returnresultado; } Fuente: Elaboración propia Para el diseño de este Kernel se basó en la segunda estrategia propuesta para la implementación. La tabla muestra los resultados promedios en ejecución Tabla. Resultados obtenidos con ambas estrategias DATOS Dalvik E E E E Fuente: Elaboración propia La grafica 3 muestra el resultado en tiempos, la gráfica 4 muestra los valores obtenidos en la aproximación obtenida al resolver la serie de Mercator. Fuente: Elaboración propia. 5. CONCLUSIONES La plataforma de cómputo paralelo RenderScript de Google es relativamente nueva a comparación de las otras plataformas y sigue con constantes cambios, lo que ha generado que su documentación no esté del todo completa. Otro de los inconvenientes que presenta es que se necesitan nuevas estrategias para la implementación, ya que no se tiene control sobre el número de hilos a ejecutar y otras herramientas que presentan las otras plataformas de cómputo paralelo; respecto a su desempeño, como mencionan en [4] donde dicen que OpenCL tiene un performance 88% mejor que su propuesta Android-Aparapi. Sin embargo, la plataforma de Google tiene la premisa de ser compatible con sin número de dispositivos y ejecutar el código de la manera más óptima en el hardware disponible en el teléfono, también rescatando una reducción en el consumo energético. Con las correctas estrategias de programación se puede obtener un excelente rendimiento comparable a las otras plataformas y tiene la ventaja de la portabilidad entre dispositivos móviles. Como se revisó en este trabajo al utilizar RenderScript se pueden realizar gran cantidad de cálculos en poco tiempo en los dispositivos móviles; esto abre la puerta para la implementación de algoritmos que antes era inaccesible para estos dispositivos, así el cómputo científico cuenta con una herramienta que puede ser de vital importancia para la validación de algoritmos. 6. REFERENCIAS [] Membarth, R.; Reiche, O.; Hannig, F.; Teich, J., "Code generation for embedded heterogeneous architectures on android," Design, Automation and Test in Europe Conference and Exhibition (DATE), 04, vol., no., pp., 6, 4-8 March 04. []Cheng-Yan Yang; Yi-jui Wu; Liao, S., "Orender: An OpenCL-to-RenderScript translator for porting across various GPUs or CPUs," Embedded Systems for Realtime Multimedia (ESTIMedia), 0 IEEE 0th Symposium on, vol., no., pp.67, 74, - Oct. 0 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 37

147 [3] Google Inc. RenderScript [Online].Available: mpute.html [4] Hung-Shuen Chen; Jr-Yuan Chiou; Cheng-Yan Yang; Yi-jui Wu; Wei-chung Hwang; Hao-Chien Hung; Shih- Wei Liao, "Design and implementation of high-level compute on Android systems," Embedded Systems for Real-time Multimedia (ESTIMedia), 03 IEEE th Symposium on, vol., no., pp.96,04, 3-4 Oct. 03 Jesús Antonio Álvarez Cedillo: Graduado por la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) del Instituto Politécnico Nacional, en la Ciudad de México, como ingeniero en comunicaciones y electrónica en 997 y posteriormente como Maestro en Ciencias de la Informática por la Unidad Profesional Interdisciplinaria de Ingeniería y Ciencias Sociales y Administrativas (UPIICSA) del Instituto Politécnico Nacional en el año 00. Desde 007 es candidato a Doctor en Tecnologías Avanzadas en el Centro de Investigación e Innovación Tecnológica (CIITEC) del Instituto Politécnico Nacional. Ha ejercido como profesor e investigador de tiempo completo del Centro de Innovación y Desarrollo Tecnológico en Cómputo (CIDETEC) desde 000. Ha publicado diversos artículos relacionados con arquitectura de computadoras, procesamiento paralelo y algoritmos de alto desempeño. Juan Carlos Herrera Lozada: Ingeniero en Comunicaciones y Electrónica, egresado de la Escuela Superior de Ingeniería Mecánica y Eléctrica del Instituto Politécnico Nacional, en la Ciudad de México, en el año de 996. En 00 obtuvo el grado de Maestro en Ingeniería de Cómputo con especialidad en Sistemas Digitales y en 0 obtuvo el grado de Doctor en Ciencias de la Computación, ambos en el Centro de Investigación en Computación del Instituto Politécnico Nacional, también en la Ciudad de México. Actualmente está adscrito al Centro de Innovación y Desarrollo Tecnológico en Cómputo del Instituto Politécnico Nacional, en donde ingresó desde 998. Ha sido autor de diversos artículos y ponente en congresos nacionales e internacionales. Jacobo Sandoval: Actualmente es Profesor Visitante en el proyecto de Arquitecturas de Sistemas Embebidos para la Investigación Científica y la Integración de Tecnologías para el Centro de Innovación y Desarrollo Tecnológico en Cómputo del Instituto Politécnico Nacional, CIDETEC, tiene Doctorado y Maestría en Tecnología Avanzada por el IPN. Teodoro Álvarez Sánchez: Maestría en sistemas digitales por Instituto Politécnico Nacional CINTEC. Estudiante de Doctorado en Ciencias del IPN-CIC (Cómputo Paralelo). 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 38

148 MÉTODO DE SIMULACIÓN DE REPLICADO DE INFORMACIÓN USANDO UNA BASE DE DATOS EN JODBC EN UN SISTEMA DISTRIBUIDO TRABAJANDO CON EL MODELO CLIENTE SERVIDOR. Resumen Se construye un simulador en lenguaje Java para comprobar el replicado de datos en un sistema distribuido, manejando una base de datos en JODBC siendo esta una API la cual es independiente del sistema operativo donde se ejecute el programa, o de la base de datos a la cual se accede. Se hace un acuse de recibo a fin de comprobar que los datos son copiados fielmente del lado cliente al lado servidor, todo esto bajo la arquitectura clienteservidor usando el sistema de sockets con la técnica de paso de mensajes, y el protocolo tcp/ip. Palabras claves Lenguaje Java, Simulador, sockets, Sistema Cliente-Servidor, replicados de datos, base de datos, ODBC, JODBC. DUARTE HERNÁNDEZ EZEQUIEL ALEJANDRO Instituto Tecnológico de Tlalnepantla alexjano0@yahoo.com.mx ARMANDO DE JESUS RUIZ CALDERÓN armandoruizmex@hotmail.com SOFÍA BARRÓN PÉREZ sofia_barron@hotmail.com ABEL GONZALEZ CAÑAS goncabel@yahoo.com.mx. INTRODUCCIÓN Lo primero que se realiza es configurar el sistema de ODBC usando el programa de Administración de orígenes de datos de ODBC de Microsoft con la base de datos llamada Replicado y tres tablas para el manejo de los registros de la tabla llamada Persona de los cuales pretenden replicar en el servidor y luego regresar o sea replicar nuevamente la información y compararla con la original. Una vez que se han obtenido los datos de la base de datos del servidor se prepara el sistema o programa de comunicaciones para poder enviar los datos usando un protocolo de comunicaciones tcp/ip mediante el uso de sockets de comunicación siendo estos de tipo stream o sea son orientados a no conexión y son no fiables, el cual permite enviar y recibir información de un punto a otro sin tener que preocuparse si se recibe o no la información, por lo tanto la información fluye en este caso del lado cliente al servidor y luego lo más importante regresar esta información que se ve como una réplica y ya que la información se regresó viene la comparación de los datos replicados con el original y comprobar que no hay ninguna alteración de los datos que se siguen conservando como el original. Para que se pueda hacer la conexión se requiere que el lado cliente use la dirección ip del servidor junto con el número de puerto al cual se pretende accesar al propio servidor.. DESARROLLO DE CONTENIDOS Para trabajar con el sistema de base de datos en ODBC de Microsoft se usa la aplicación de Administrador de orígenes de datos del mismo, es aquí donde se da de alta una base de datos con la que se va a trabajar en este caso se llama Replicado que está hecha en Access y el archivo se llama también REPLICADO.mdb, como se muestra en la Figura. Figura. Base de datos REPLICADO en Access. Fuente: Elaboración propia La base de datos Replicado contiene tres tablas que son Pasatiempo, Persona y Tabla de estas la que se va a usar es la de Persona la cual contiene cuatro atributos que son Rfc, Nombre, Dirección y Teléfono. El replicado se inicia desde el primer registro de la tabla Persona hasta el último registro no importa que tan pequeño o grande sea como se ve en la Figura. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 39

149 Figura. La base de datos Replicado con La tabla Persona. Fuente: Elaboración propia. Ya que la base de datos esta lista para usarse se hace el programa para abrir la base de datos y leer todos los registros de la tabla Persona como se muestra a continuación en el fragmento de código. String driversun = "sun.jdbc.odbc.jdbcodbcdriver"; String driverms = "com.ms.jdbc.odbc.jdbcodbcdriver"; // UBICACION DE LA BASE DE DATOS, HACE REFERENCIA AL MANEJADOR DEL ODBC String ubicacion = "jdbc:odbc:replicado"; // CLAVE DE ACCESO A LA BASE DE DATOS String usuario = null; String contrasena = null; Como puede observarse se usa el manejador de java el jdbc y el nombre de la base de datos que se llama Replicado. De esta manera ya está listo el programa para poder Leer de la tabla Persona, todos los registros como se ve en el fragmento del código siguiente. viceversa como se muestra en el fragmento de código que muestra a continuación. try { conexion = new Socket(" ",7777); is = new DataInputStream(conexion.getInputStream()); os = new PrintStream(conexion.getOutputStream()); System.out.println("servidor contactado"); System.out.println(" LOS DATOS QUE ENVIA EL CLIENTE SON " + z); os.println(z); os.flush(); os.println("8"); os.flush(); String entra = is.readline(); System.out.println(" LOS DATOS QUE RECIBE EL CLIENTE SON " + entra); conexion.close(); // System.exit(0); } catch(ioexception e) { } } La conexión se hace con el protocolo ip que es igual en este caso al servidor y con el número de puerto Como puede observarse en el fragmento del código anterior los datos son enviados en este caso son Replicados del lado cliente al lado servidor y luego son regresados del lado servidor al lado cliente para ser comprobados que no se fueran a modificar o sea que permanezcan íntegros. La parte final se da cuando los registros de la tabla Persona son enviados del lado cliente al lado servidor y viceversa como se muestra en la Fig. 3. Figura 3. Los datos enviados y recibidos lados Cliente. while( resultado.next() ) { String rfc = resultado.getstring("rfc"); String nombre = resultado.getstring("nombre"); String direccion = resultado.getstring("direccion"); String telefono = resultado.getstring("telefono"); z=rfc+" "+nombre+" "+" "+direccion+" "+" "+telefono+" "+z+" "; // DESPLEGA LOS DATOS LEIDOS System.out.println(rfc +" "+ nombre +" " + direccion + " " + telefono); } Luego viene otra parte donde se hace la conexión para poder enviar los datos del lado cliente al servidor y Fuente: Elaboración propia. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 40

150 Y en la parte del servidor también se muestran los datos mostrados en la Figura 4. Figura 6. Datos Replicados tanto en el servidor como nuevamente en el cliente. Figura 4. Registros replicados en el lado servidor Fuente: Elaboración propia. Como puede observarse los datos si fueron replicados de un punto a otro sin ningún fallo lo que demuestra que para fines didácticos si funciona este trabajo. Y algo importante como puede observarse en las figuras 5 y 6. El campo con el nombre Martha en los campos dirección y teléfono no tienen ningún valor esto se ve reflejado en la Réplica que estos campos que tienen el valor null o sea nulo, o sea que no tienen valor alguno. 3. CONCLUSIONES Fuente: Elaboración propia. De esta forma se puede concluir que los datos si fueron replicados con éxito sin sufrir ningún percance como se muestra en la Figura 5. Datos originales de la tabla Persona y Figura 6. Figura 5. Datos originales de la tabla Persona Como puede observarse los datos si fueron replicados de un punto a otro sin ningún fallo lo que demuestra que para fines didácticos si funciona este trabajo. Y algo importante como puede observarse en las figuras 5 y 6. El campo con el nombre Martha en los campos dirección y teléfono no tienen ningún valor esto se ve reflejado en la Réplica que estos campos que tienen el valor null o sea nulo, o sea que no tienen valor alguno. Si fueron replicados con su valor de verdad Nulo. 4. REFERENCIAS Fuente: Elaboración propia. []A. Silverschatz, Fundamentos de Sistemas Operativos,7nd ed., P. B. Galvin, G. Gagne, España: Mc GrawHill, 006. [] A. S. Tanenbaum, Sistemas Distribuidos, ed., M. V. Steen, Amsterdam, Holanda, Pearson Educación, 008. [3] J. C. Pérez, Sistemas Operativos una Visión Aplicada, ed., F. G. Carballeira, P. de M. Anasagasti, España: Mc Graw Hill, al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

151 FACTIBILIDAD DE AHORRO DE ENERGIA CON EL DESARROLLO SECUENCIAL DEL ANALISIS DE CONGLOMERADOS Resumen El desarrollo de un algoritmo secuencial para análisis de conglomerados es importante para realizar estudios de la clasificación de objetos u organismos, la utilización del vecino más cercano permite hacer el análisis de forma más adecuada el poder trabajar este algoritmo con una sola computadora facilita el estudio pues ya no se requiere equipos más complejos que gastan mucha energía Palabras clave: Análisis de conglomerados, clusters, cómputo paralelo, S-Link. ARMANDO DE JESUS CALDERON Biólogo M.I Profesor investigador Instituto Tecnológico de Tlalnepantla armandoruizmex@gmail.com MARIA VERONICA ESTRELLA SUAREZ Ingeniero Industrial eléctrica Dr. Profesor investigador Instituto Tecnológico de Tlalnepantla vestrella00@yahoo.com.mx JORGE RICARDO GERSENOWIES RODRIGUEZ Biólogo Dr. Profesor a nivel licenciatura Instituto Tecnológico de Tlalnepantla jrgersenowies@hotmail.com EZEQUIEL ALEJANDRO DUARTE HERNANDEZ Lic. en Ing. Mecánica y Eléctrica, Profesor investigador Instituto Tecnológico de Tlalnepantla alexjano0@yahoo.com.mx. INTRODUCCIÓN En la actualidad y desde el inicio del uso de las computadoras, el modelo comúnmente utilizado es el modelo de cómputo secuencial propuesto por Von Newman, que consiste de una unidad central de proceso con una memoria de acceso aleatorio además de un conjunto de instrucciones de lectura, escritura y operaciones aritméticas básicas. Sin embargo la necesidad de tener respuestas más rápidas a problemas complejos, hace que éste modelo de cómputo no sea el único, existen otros modelos de cómputo como es el caso del cómputo paralelo, cuyo principal objetivo es el de realizar cálculos complejos más rápidos utilizando varios procesadores de manera simultánea, esto trae como resultado un desempeño mucho más elevado, que en aquellos equipos donde se utiliza el modelo de cómputo secuencial y que tiene solo un procesador que se utiliza de forma secuencial []. Otro de los objetivos del cómputo paralelo es el de reducir la complejidad algorítmica de aquellos problemas que son muy complejos y que si se tuviera que utilizar una computadora secuencial el problema a resolver tardaría mucho tiempo o quizás no se podría resolver, como sucede con algunos algoritmos biológicos que se utilizan para la clasificación de organismos tomando como base sus semejanzas; tal es el caso del análisis de conglomerados, este tipo de algoritmos utiliza una muestra muy grande de datos, lo que hace que su complejidad aumente dificultando con ello su resolución. El análisis de conglomerados es una técnica de estadística multivariada está compuesto de un número determinado de objetos similares agrupados todos en una muestra. Ésta técnica, se considera como el estudio formal de algoritmos y métodos de agrupamiento o agrupación de objetos []. Es útil en muchas áreas de análisis de patrones, agrupación, toma de decisiones, y minería de datos entre otras áreas [6]. El análisis de conglomerados no categoriza ni etiqueta a los elementos utilizando clasificaciones previas lo que se conoce como una clasificación no supervisada [6], la característica distintiva y que diferencia al análisis de conglomerados, del análisis discriminante como el reconocimiento de patrones, es, el no tener una etiqueta por categorías, el objetivo del análisis de conglomerados, es simplemente encontrar una clasificación válida y adecuada de los datos, pero no establecer reglas para hacer separaciones de los datos en las siguientes muestras de datos. Ya en 974 Everitt [3] definía a un conglomerado como un conjunto cerrado de objetos similares, que se 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

152 encuentran agrupados juntos entre ellos, y tiene las siguientes características: a) Un conglomerado o cluster, es un conjunto de entidades las cuales no son idénticas, y las entidades de diferentes conglomerados no son idénticos. b) Un conglomerado es una agregación de puntos dentro de un espacio de prueba, en la que la distancia entre cualesquiera dos puntos en el conglomerado es menor que cualquier distancia fuera de el. c) Los conglomerados pueden ser descritos como regiones conectadas en un espacio multidimensional, que contiene regiones con relativa alta densidad de puntos, separados de otras regiones que contienen relativa baja densidad de puntos. Se asume que los objetos que se van a clasificar se representan como puntos en el espacio de prueba, siendo su principal problema, la identificación de los datos en cada conglomerado para poder especificar la proximidad entre ellos y como medirla. Existen varios métodos para realizar el análisis de conglomerados como son: a) El método Jerárquico aglomerativo b) El método divisivo c) El método de las medias globales-k [8,9] d) El método de grafos entre otros [] Para este trabajo se seleccionó el utilizar el método de jerárquico aglomerativo, con el esquema del vecino más cercano, también conocido como método jerárquico aglomerativo, o SLINK, Single linkage clustering method ya que otros métodos como el de las medias globales-k que trabajan a partir de aproximaciones por incrementos[8,9], o los métodos divisivos que trabajan con diferencias no son lo más adecuado para el algoritmo que se desarrolla. Este método, (S-LINKAGE), define la mayor similaridad entre dos conglomerados cualquiera, calculando el promedio aritmético de las similitudes entre los objetos de n conglomerados [4]; para poder desarrollar éste método,. Se coloca cada elemento en su propio conglomerado, se construye una lista de todas las distancias entre los diferentes conglomerados y los ordena de manera ascendente.. A través de la lista ya ordenada de distancias se hace la estandarización de los datos utilizando la ecuación. 3. Una vez realizada la estandarización se calcula la similaridad entre cada elemento calculando la distancia entre cada elemento utilizando el coeficiente de Jaccard, el cual es un coeficiente de similaridad.[4] 4. Utilizando el índice de Gower, se van agrupando aquellos elementos cuya distancia sea menor y se va dibujando el dendrograma El índice de Gower fue descrito en la década de los años 70 por J.C. Gower, éste es un coeficiente de medición general que calcula la similaridad o distancia entre dos unidades definidas. Éste coeficiente, utiliza una matriz de similitudes para medir la cercanía entre un par de elementos utilizando todos los pares de elementos de la muestra de datos. [5]. OBJETIVO Proponer un algoritmo secuencial para realizar análisis de conglomerados que será utilizado en la clasificación de organismos, utilizando sus caracteres fenotípicos. 3. CONTRIBUCION Con el desarrollo y utilización de éste algoritmo secuencial, se está sugiriendo el uso de los recursos de una sola computadora, lo que representa un ahorro significativo de energía, además de desarrollar un algoritmo que se utilizará en el estudio y análisis de la clasificación de un grupo de peces cartilaginosos. 4. METODOLOGIA. Realizar la obtención de los datos de los datos de los organismos. Una vez que los datos se obtuvieron se colocan en una matriz. 3. Se realiza la estandarización de los datos 4. Se calcula la matriz de semejanza 5. Se ejecuta el método de closterización seleccionado en este caso corresponde al vecino más cercano o S- Link 6. Se reorganiza la matriz en pequeñas matrices de semejanzas 7. Se dibuja el dendrograma [4] 5. RESULTADOS Se utilizó una matriz de 700 x 4 para poder resolver este algoritmo, el algoritmo utilizó información correspondiente a 700 especies de elasmobranquios hipotremados, de diferentes partes del mundo y pertenecientes a diferentes grupos taxonómicos, la información recabada de los organismos fue 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 43

153 bibliográfica, y se tomaron las descripciones existentes de algunos de los grupos del catálogo de la FAO [7] Se encontró que el algoritmo tiene una complejidad Elevada de O(n 3 ) cluster utilizado anteriormente para el desarrollo de este algoritmo consume aproximadamente 350 watts al ser un cluster de 9 computadoras con un consumo aproximado de 50 Watts por cada nodo El algoritmo se pudo resolver en una computadora con procesador Intel core i5 con 4 Gb en RAM, sistema Operativo Yosemite, se programó en lenguaje objective C; sin embargo se considera que el algoritmo no tiene buen desempeño pues se puede mejorar, se está trabajando en una actualización del algoritmo para mejorar su desempeño del algoritmo y que pueda trabajar con una muestra más grande además de reducir su complejidad para poder bajar su tiempo de ejecución. El hecho de que el algoritmo se haya podido resolver con una computadora secuencial, con un solo procesador, es importante, ya que este algoritmo se trató de resolver en el año de 995 y con el hardware existente en ese tiempo, no se pudo procesar de manera secuencial teniéndose que paralelizar; al estar paralelizando el algoritmo se intentó ejecutar en una computadora SP de IBM utilizando PVM y no fue exitoso ese intento, se generó un cluster con 9 computadoras utilizando LINUX Red Hat y PVM para Linux y existieron complicaciones importantes para el desarrollo del algoritmo CONCLUSIONES. El algoritmo se pudo ejecutar en una computadora secuencial con un procesador Intel core I5. El ahorro de energía que se da al utilizar solo una computadora siendo este desarrollo de gran importancia, pues en el año de 995 que se planteó resolver este problema y requería de una computadora paralela o de un cluster de computadoras lo que generaba un gasto muy grande de energía, además de una complejidad para programar muy elevada. 3. El algoritmo utilizado tiene una complejidad de O(n 3 ) lo que hace que su tiempo de ejecución no sea el mejor 4. Reduciendo la complejidad y mejorando las técnicas de programación se puede optimizar aún más su ejecución. 5. Con el uso de este algoritmo se pueden comprobar las clasificaciones taxonómicas de grupos de organismos, utilizando sus caracteres fenotípicos, los cual también ahorros importantes en recursos económicos, pues los estudios de genotipo utilizando ADN son muy costosos 6. La tecnología actual con el poder de cómputo de este tipo de microprocesadores permite procesar algoritmos muy complejos. 7. De acuerdo con el FIDE, (Fideicomiso para el Ahorro de Energía Eléctrica). El ahorro de energía utilizando este algoritmo es claro, pues una laptop consume en promedio 60 Watts, mientras que el REFERENCIAS [] Joseph, Já Já An introduction to Parallel Algorithms Addison Wesley, USA 99 [] K. Anil, C. Richard Dubes, Algorithms for Clustering Data, Prentice Hall, NJ, pp. 5, 6, 64, 65, 988. [3] Everitt, B.S. Cluster Analysis, John Wiley & Sons. Inc. New York [4] Romesburg H, Cluster Analysis for Researchers,Krieger Publishing, Malabar Florida pp 0-3 [5] Gower, J. C. A general coefficient of similarity and some of Its properties Biometrics Vol. 7 No.4 (Dec 97) pp [6] A. K. Jain; M.N. Murty; P.J. Flynn; Data Clustering: A Review ; ACM Computing Surveys, Vol 3, No. 3, September 999 pp 65, 66 75,76, 77 USA [7] FAO Species Catalogue for Fishery Purposes No. 7 ISSN [8] L. Aristidis, V. Nikos, J. Verbeek K-means clustering Algorithm, Pattern Recogntion Vol 36 pp Elsevier [9] A. Amir, L. Dey, Ak-mean clustering algorithm for mixed numeric and categorical data, Data & Knowledge Engineering, Vol 63 pp , Elsevier 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 44

154 ALGORITMO GENÉTICO SIMPLE EN EL PROCESAMIENTO DE LENGUAJE NATURAL Resumen-- Este trabajo plantea la aplicación de algoritmos genéticos a la obtención de palabras de entrada y de salida que representan procesos no lineales en los que aparecen términos producto, describiéndose el método y las ventajas de su utilización mediante simulaciones realizadas en MATLAB. Lo cual se aplica al procesamiento de lenguaje natural. Palabras claves-- Algoritmos Genéticos, Inteligencia Artificial. DORA MARÍA CALDERÓN NEPAMUCENO Profesora Investigadora EFRÉN GONZÁLEZ GÓMEZ Profesor Investigador DORICELA GUTIÉRREZ CRUZ Profesora WALTER CHARLES BAUTISTA TRACONIZ Estudiante Licenciatura en Ingeniería de Sistemas Inteligentes. Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl dmcalderonn@uaemex.mx. INTRODUCCIÓN Un algoritmo genético es un método que se utiliza para resolver problemas de búsqueda y optimización. Se basa en la genética natural y en la teoría de la evolución de Darwin, utilizando la información histórica para encontrar nuevos puntos de búsqueda de una solución óptima a problemas para los que no existe un método preciso. [5] Los algoritmos genéticos son una de las principales herramientas tecnológicas de la inteligencia artificial y requieren una función-objetivo para llevar a cabo la búsqueda de soluciones, intentando encontrar aquella que optimice dicha función. Una vez que el algoritmo genético obtiene una población y en base a la función objetivo aplicada a cada uno de los individuos, se seleccionan los mejores y se combinan para generar nuevas poblaciones; este proceso se repite hasta que se cumplan los criterios de paro. [] Funcionamiento básico de un algoritmo genético A continuación se muestra el funcionamiento básico de un algoritmo genético, considerando que previamente es necesario determinar una función objetivo del problema de optimización y especificar la manera de codificar las posibles soluciones. Generación de la población inicial Normalmente l algoritmo genético genera de forma aleatoria una población para el primer ciclo, formada por un conjunto de cromosomas (individuos), o cadenas de bits a los cuales se les aplica la función objetivo. Evaluación de los cromosomas La evaluación se realiza calculando la función objetivo para cada uno de los cromosomas que forman la población actual. De esta forma se determina la adaptación de cada individuo de la población actual. Las funciones para la evaluación de la aptitud son específicas a cada problema. Selección Consiste en seleccionar los cromosomas que serán cruzados en la siguiente generación. Los cromosomas con mejor aptitud tienen mayor probabilidad de ser seleccionados. Existen diferentes métodos de selección que pueden utilizar los algoritmos genéticos. A continuación se describen brevemente dos de ellos: Método de la ruleta o selección proporcional: Este método consiste en crear una ruleta en la que cada cromosoma tiene asignada una fracción proporcional a su aptitud. A los individuos más aptos se les asigna un área mayor de la ruleta, para que sean seleccionados más veces que los menos aptos. Método del torneo: En este método se eligen subgrupos de individuos de la población y después se hace competir a los individuos que integran cada subgrupo. Se elige el individuo de cada subgrupo que tenga el valor de aptitud más alto. [][3] Cruza Es el intercambio de material genético entre dos cromosomas a la vez para generar dos descendientes donde se combinan las características de ambos cromosomas padres. Una forma común de cruza consiste en establecer un punto de intercambio en un lugar aleatorio del cromosoma de los dos individuos, y uno de los individuos contribuye todo su código anterior a ese punto y el otro individuo contribuye todo su código a partir de ese punto para producir una descendencia. Mutación 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 45

155 Al igual que una mutación en los seres vivos cambia un gen por otro, una mutación en un algoritmo genético también causa pequeñas alteraciones en puntos determinados del código de un individuo. Por último, se comprueba si alguno de los individuos disponibles satisface los criterios establecidos y se puede considerar como solución al problema. El algoritmo genético se detiene cuando se cumpla un número determinado de generaciones o cuando no haya cambios en la población.[4]. DESARROLLO El programa inicia pidiendo la palabra objetivo y la palabra inicial, independientemente de sus tamaños, ya que la palabra inicial se ajustara a la palabra objetivo. Si la palabra inicial es mayor, el programa la recorta al tamaño de la palabra objetivo, y si es menor, obtiene letras del abecedario aleatoriamente para completar el tamaño. Para obtener las letras adicionales se utiliza una función random sobre el abecedario, y de este modo se genera las letras necesarias. La conversión a binario se hace utilizando una función llamado Bin, donde el resultado lo guarda en un arreglo para su posterior extracción. El siguiente paso consiste en hacer una selección y competencia de individuos, es decir, de los valores de 0 y de las palabras ya convertidas, se toma el mayor y se asigna como el ganador. Posteriormente se inicia el proceso de cruce entre el individuo ganador y perdedor, para extraer de ellos los genes que generaran al nuevo individuo. Al nuevo individuo se le aplica el proceso de mutación para mejorarlo, el grado de mutación depende de la necesidad requerida, en nuestra caso es de 40%, lo que indica que el nuevo individuo es totalmente distinto al individuo anterior generado. El nuevo individuo pasa a ser nuestra nueva palabra inicial, y se le aplica nuevamente el algoritmo genético, para extraer las características necesarias, y de esta forma se repite el proceso hasta que se logre el objetivo que es encontrar la palabra final. Qué se requiere para aplicar un algoritmo genético? Esto conlleva la ejecución de un ciclo compuesta de diferentes etapas. A continuación se presenta un esquema con el correspondiente ciclo: El ciclo está compuesto por los siguientes pasos:. Generar población. Evaluar adecuación 3. Los mejores se reproducen, los peores se extinguen 4. Aplicar mutaciones 5. Actualizar población 6. Volver a etapa EJEMPLOS 3. CONCLUSIONES Ejemplo : Palabra Playa y océano Fuente: Elaboración propia. Ejemplo. Fuente: Elaboración propia. Los algoritmos genéticos son una herramienta útil para obtener soluciones de problemas que requieren la optimización y cuyas posibles respuestas se encuentran dentro de un universo limitado. La vida es un proceso de constante evolución que implica transformaciones ordenadas y no-ordenadas de los sistemas en donde se desarrolla, sobre todo el procesamiento de lenguaje natural. Esto parece trascender a los mercados financieros, donde se viven cambios a consecuencia de las decisiones humanas. El hecho de pensar que los algoritmos computacionales puedan tener una base en la evolución de los organismos puede ser sorprendente, sin embargo el hecho de que los Algoritmos Genéticos puedan ser aplicados a muchas áreas donde los conocimientos computacionales actuales como las búsquedas aleatorias o graduales no han tenido resultados óptimos nos conduce a pensar que los Algoritmos Genéticos constituyen realmente una poderosa herramienta de búsqueda heurística con la habilidad de explotar y aprender de sus dominios. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 46

156 Lo Algoritmos Genéticos son relativamente fáciles de entender e implementar, y su principal ventaja y desventaja a la vez es su robustez, si posee una mala implementación, el Algoritmos Genéticos seguirá corriendo y tarde o temprano encotrará el problema o encotrará un óptimo local. Dejemos que la naturaleza sea nuestra guía, dado que la mayoría de los problemas a los que se van a aplicar los algoritmos genéticos son de naturaleza no lineal, es mejor actuar como lo hace la naturaleza, aunque intuitivamente pueda parecer la forma menos acertada. Por ultimo dejemos que la naturaleza actúe de forma distribuida, por tanto, se debe de minimizar la necesidad de operadores que "vean" a la población. Ello permite, además, una fácil paralelización del algoritmo genético. Por ejemplo, en vez de comparar el rendimiento de un individuo con todos los demás, se puede comparar sólo con los vecinos, es decir, aquellos que estén, de alguna forma, situados cerca de él. Charles Walter Bautista Traconiz. Alumno décimo semestre de la licenciatura en Ingeniería en Sistemas Inteligentes, en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Reconocimiento de Patrones e Inteligencias Artificial. 4. REFERENCIAS Koza John R., Genetic Programming On the Programming of Computers by Means of Natural Selection. Editorial MIT Press, 998. Bramer Max, Devedzic Vlandan, Artificial Intelligence Applications and Innovations. Editorial Kluwer Academic,004. Coppin Ben, Artificial Intelligence Illuminated. Sudbury, MA. Editorial Jones and Bartlett, 004. Russell Stuart y Norving Peter. Inteligencia Artificial: Un enfoque moderno. Editorial Prentice Hall, 004. Lakhmi C., Martin N. M., Fusion of Neural Networks, Fuzzy Systems and Genetic Algorithms: Industrial Applications.Editorial CRC Press, 998. Dora María Calderón Nepamuceno: Doctora en Ciencias en la especialidad en Control Automático. Profesora Investigadora de tiempo completo en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Ingeniería de software e Inteligencias Artificial (Sistemas Basados en conocimiento). Efrén González Gómez. Maestro en Ciencias en Sistemas Computacionales. Profesor Investigador de tiempo completo en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Reconocimiento de Patrones e Inteligencias Artificial Doricela Gutiérrez Cruz. Doctora en Sistemas. Profesor de tiempo completo en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Ingeniería de software e Inteligencias Artificial (Sistemas Basados en conocimiento). 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 47

157 PROCESAMIENTO DE IMÁGENES APLICADOS A LA EDUCACIÓN Resumen En el procesamiento de Imágenes es necesario implementar algoritmos de bajo costo para identificar objetos básicos, como son figuras geométricas, líneas, etc. El trabajo de procesar imágenes conlleva al uso de algoritmos con los que se pueden identificar líneas o figuras geométricas básicas. EL procesamiento de una imagen digital tiene como objetivos, el mejoramiento de la información gráfica para la interpretación humana y el procesamiento de los datos e información. Existen diferentes metodologías para la visión por computadora (interpretación de imágenes) las cuales se han ido desarrollando con el paso del tiempo, capaces de reconocer formas e interpretar una imagen conforme a las características o patrones que posee una imagen digital. La utilización de reconocimiento de patrones es muy eficiente para realizar sistemas de muy bajo costo, para conceptos básicos de la geometría, trigonometría, álgebra y la aritmética, que siendo conocimientos no muy complejos son básicos para que sean adquiridos por el alumno de una forma amigable. DORA MARÍA CALDERÓN NEPAMUCENO Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl dmcalderonn@uaemex.mx EFRÉN GONZÁLEZ GÓMEZ GABRIELA KRAMER BUSTOS DORICELA GUTIÉRREZ CRUZ EDGAR FIGUEROA ARENAS Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl Palabras claves Patrones, Figuras, Geométricas, Educación.. INTRODUCCIÓN El desarrollo tecnológico en los últimos días ha hecho que los gráficos por computadora o el procesamiento de la imagen sea un importante y popular desarrollo en el ámbito de la tecnología moderna. El reconocimiento de patrones tanto como la interpretación de imágenes digitales han tenido procesos significativos, en los centros de investigación hay un interés por el procesamiento de la imagen y el reconocimiento de patrones y en desarrollar mejores metodologías para la visión por computadora. El procesamiento de una imagen digital tiene como objetivos, el mejoramiento de la información gráfica para la interpretación humana y el procesamiento de los datos e información. Existen diferentes metodologías para la visión por computadora (interpretación de imágenes) las cuales se han ido desarrollando con el paso del tiempo, capaces de reconocer formas e interpretar una imagen conforme a las características o patrones que posee una imagen digital. La utilidad o la necesidad de interpretar una imagen, son necesarias en el Área de la ingeniería, la computación, tecnologías de la información, etc. Los algoritmos más usados para la interpretación de imágenes los abordaremos en este documento, haremos alusión al algoritmo de Hough, empleado en reconocimiento de patrones de una imagen, la cual permite encontrar formas como círculos, líneas, entre otras, dentro de la imagen, la versión más sencilla consiste en encontrar líneas. El modo de funcionamiento es estadístico y de acuerdo a los puntos que se tengan se debe averiguar las posibles líneas en las que puede estar el punto, lo cual se logra por medio de una operación que es aplicada a cada línea en un rango determinado. Abordaremos otro algoritmo para tener el esqueleto de una imagen el cual servirá para el reconocimiento de una forma o figura.. DESARROLLO En el procesamiento de imágenes es necesario implementar algoritmos de bajo costo para identificar objetos básicos, como son figuras geométricas, líneas, etc. El trabajo de procesar imágenes conlleva al uso de algoritmos con los que se pueden identificar líneas o figuras geométricas básicas, uno de ellos es la transformada de Hough. La Transformada de Hough es una técnica para la detección de figuras en imágenes digitales. Esta técnica es mayormente usada en el campo de Visión por Computadora. Con la transformada de Hough es posible encontrar todo tipo de figuras que puedan ser expresadas matemáticamente, tales como rectas, circunferencias o elipses. La transformada de Hough fue propuesta y patentada en 96, por Paul Hough, inicialmente esta técnica solo se aplicaba en la detención de rectas de una imagen, ya 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 48

158 después con el paso del tiempo se extendió para detectar cualquier figura que se pudiera descubrir con unos cuantos parámetros, como los eran comúnmente circunferencias y elipses. valores de correspondientes a los posibles valores de. Fig.. Tabla acumuladora. Fuente: Elaboración propia La idea básica es encontrar curvas que puedan ser parametrizadas como líneas rectas, polinomios y círculos. Se puede analíticamente describir un segmento de línea en varias formas []. Consideramos un punto ( ) y la ecuación de la recta, de la forma pendiente y ordenada al origen. Por el punto ( ) pasan infinitas rectas, pero todas satisfacen la ecuación anterior para diferentes valores de. Escribiendo esta ecuación en la forma. Algoritmo de adelgazamiento o esqueletización Cambio de parámetros ahora en el plano (espacio de parámetros) da lugar a una única recta para el par ( ). Ahora al considerar un segundo punto ( ), también va a tener su recta asociada en el espacio de parámetros. Al trazar las rectas se cortarán en el espacio de parámetros en un punto ( ), donde es la pendiente y b la ordenada al origen de la recta que contiene a los puntos ( ) y ( ) en el plano. Todos los puntos de esa recta en el plano xy darán lugar a rectas diferentes en el espacio de parámetros que se cortan en un único punto ( ) La transformada de Hough usa el espacio de parámetros en forma de celdas acumuladoras, donde ( ) y ( ) son los rangos para la pendiente y la ordenada al origen, los cuales los rangos son variables y es a criterio del problema o dimensión de la imagen. La celda de coordenadas ( ) con un valor de acumulador ( ) corresponde al cuadrado asociado con las coordenadas ( ) del espacio de parámetros. Inicialmente todas las celdas del acumulador de inicializan en 0. Entonces para cada punto ( ) de la imagen a reconocer, permitiendo que el parámetro pueda tomar cualquier valor de entre los mi (rango) y calculamos usando la ecuación del espacio de parámetros, valor de entre los (rango). Si para un valor en el acumulador en coordenadas ( ) resultó un valor ( ) se tiene que hacer: ( ) ( ) Donde son los subíndices de la tabla acumuladora. La esqueletización o adelgazamiento es la transformación de una componente de la imagen original. Esta transformación busca reducir la cantidad de datos o simplificar la forma del objeto, con el fin de encontrar características útiles en algoritmos de reconocimiento y clasificación. Gran variedad de métodos se han propuesto con el objetivo de preservar una componente conectada que represente a la imagen digital, al simplificar la forma, o reducir la cantidad de datos, propone una clasificación de los métodos de esqueletización a partir de los operadores que emplean: a) Métodos cuyos operadores se basan en la transformada de distancia. b) Métodos cuyos operadores reportan líneas medias o centrales. c) Métodos cuyos operadores están caracterizados por adelgazamientos iterativos. El cual un algoritmo clásico para tener un adelgazamiento es el siguiente, Un algoritmo de imagen consiste en una sucesión * + de transformaciones de imagen y una condición de terminación. La aplicación del algoritmo consistirá en la aplicación sucesiva e iterada de las transformaciones que lo componen hasta llegar a la condición de terminación. Suponemos que tenemos la siguiente imagen: Cuando se tenga un máximo en la celda acumuladora se procede a que para a cada punto ( ) obtenemos 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 49

159 Fig.. Ejemplo de imagen con pixeles. Para cada triada del pixel de la imagen, se le asignara un mismo valor,, sumando cada componente y realizar un promedio. Si el promedio sobrepasa un umbral de 8 (color) se realiza: Fuente: Elaboración propia. Recorremos cada pixel de la imagen hasta encontrar un pixel negro en el cual se crea una vecindad de todos los pinceles adyacentes al pixel analizado ( ) Se recorre la vecindad P donde se analizaran los colores que son diferentes ( ) del color de la figura que se quiere adelgazar en este caso será negro 0 y blanco no contando con el pixel que se está analizando, también se analizara en número de transiciones de a 0 en la secuencia siguiente: Tabla. Ejemplo de tabla P9 P P3 P8 P P4 P7 P6 P5 Fuente: Elaboración propia. La cual cumplirá con las siguiente condiciones, las cuales si cumple se etiquetara para borrado. a) ( ) El número de pixeles diferentes de sea mayor o igual a pero menor o igual que 6. b) ( ) El número de transacciones sea igual a uno. c) El producto sea igual a 0 d) El producto sea igual a 0 La imagen se cargara solo en Blanco y Negro. Fig. 3. Ejemplo de colores cargados en la imagen. Fuente: Elaboración propia. Teniendo la imagen en blanco y negro, se procede a realizar un método el cual solo tendrá el esqueleto de la figura. Con trabajo del algoritmo de esqueletizacion o adelgazamiento, se tendrá una imagen de menos grosor, el nivel de pixeles se reducirá el cual facilitara el cálculo sus rectas o figuras que tiene la imagen. Para cada pixel negro encontrado de la imagen, cumplirá con las siguientes condiciones: ( ) El número de pixeles diferentes de sea mayor o igual a pero menor o igual que 6. ( ) El número de transiciones sea igual a uno. Si cumple con los 4 pasos se procederá a etiquetarlo para borrado. Se vuelve iniciar el proceso iterativo repitiendo todo el procedimiento a cada pixel negro encontrado y alterando pasó c) y d) de la siguiente forma: a) b). Reconocimiento de figuras geométricas básicas La plataforma en la cual se trabajara es en el entorno de Visual Studio con el lenguaje de programación de C++. Primero se trabajara la imagen de la figura la cual se reconocerá, trataremos la imagen convirtiéndola a un efecto de binarización. El producto sea igual a 0 El producto sea igual a 0. Si cumple con los 4 pasos se precederá a etiquetarlo para ser borrado. Se vuelve iniciar el proceso iterativo repitiendo todo el procedimiento a cada pixel negro encontrado y alterando pasó c) y d) de la siguiente forma: 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 50 ) ) Teniendo el esqueleto de la figura se puede saber cuáles son las formas que la integran, en este caso está conformado por rectas. Reconocer las rectas que la

160 integran y sus ecuaciones puede ser un poco costoso si lo pensamos en forma procedimental para resolver el problema, el cual con ayuda de la Transformada de Hough se pueden calcular las figuras que lo integran, en este caso serán rectas. El cual mediante su modelo estadístico cada punto representa líneas infinitas las cuales se cruzan y se obtiene un punto. Las rectas se obtienen para hacer el reconociendo de la figura: Fig. 4. Rectas para reconocimiento de figura. Se conoce su intersección en y sustituir en: Se conoce su intersección en sabiendo cuáles son sus intersecciones de cada vértice, sus coordenadas en el plano, podremos sacar sus segmentos, distancia, diferencia de cada intersección el cual podremos saber básicamente de que figura se trata. Por ejemplo: si existen 4 rectas y 4 intersecciones, y la distancia entre dos puntos de cada vértice es igual, podría tratarse posiblemente de un cuadrado. De otra forma si se conocen sus vértices y la longitud de cada una de ellos o sus pendientes de cada recta, podrían saberse sus ángulos internos con la siguiente razón []: Fuente: Elaboración propia. El encontrar rectas con el algoritmo o transformada de Hough usando un umbral propuesto para limitar el número de rectas que puede haber en la figura, tiene una variación en cual el umbral no es contante, dependiendo de qué forma o figura se va a reconocer; por lo que a veces el umbral varía y debe de ser manual ante un usuario. El problema planteado es que un umbral dado para al algoritmo, para la discriminación de rectas del acumulador, puedes ser ±número de rectas esperadas correctas. Si tiene un numero de rectas, mas, de lo esperado, algunas rectas son paralelas entre si y contienen una mínima distancia una de otra por lo que se realiza una pequeña depuración con un umbral dado pero ahora para la discriminación de rectas; se toma en cuenta un pequeño perímetro para saber que rectas son paralelas y que rectas no lo son, ya que las que no, pertenecen a otra arista de la figura. Por lo que se platea tomar todo el número de rectas de cada arista y realizar una media, así para tener el promedio de las rectas resultantes y así tener una estimación esperada para la recta correcta. Con ayuda de las rectas obtenidas ya depuradas, podemos tener sus pendientes y ordenadas al origen y : Lo cual teniendo sus pendientes y sus ordenadas podemos saber cuáles y en qué punto del plano existe la intersección de una recta con la otra. Si se tiene la razón: Si se conocen sus ángulos internos (ángulos rectos de 90) y se sabe que la longitud de la distancia de cada una de las intersecciones es igual, si podría tratarse más firmemente de un cuadrado. En el caso de un rombo casi posee las mismas características que el del cuadrado, solo que ahí nos ayudaría conocer forzosamente sus ángulos internos ya que a diferencia del cuadrado sus ángulos no son rectos, y sus ángulos opuestos con iguales. Un triángulo solo tiene tres intersecciones, el cual al momento de que se detecten 3 rectas se sabrá fácilmente que se trata de un triángulo, por lo que se hace, es calcular sus ángulos internos para saber qué tipo de triangulo es. Fig. 5. Ejecución del programa el cual reconoce un Rombo 3. CONCLUSIONES Fuente: Elaboración propia. Sabemos que el poder de las matemáticas junto con la computación puede ser un monstruo en la tecnología y avances en la ciencia, ingeniería y computación. Comprobamos que aplicando algoritmos no muy costosos computacionalmente y con cálculos no muy complejos, se puede realizar un reconocimiento de visión por computadora el cual puede ser una base para hacer grandes cosas como por ejemplo hacer un reconocimiento facial o yendo más allá reconocer formas o figuras dentro de una imagen de video. Vimos que el poder del algoritmo de Hough es muy eficiente para realizar sistemas de muy bajo costo, y de lo importante de tener presente conceptos básicos de la geometría, 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

161 trigonometría, algebra y la aritmética, que siendo conocimientos no muy complejos a un nivel de ingeniería, pueden ayudar de mucho sobre todo en el nivel educativo. 4. REFERENCIAS []. Swokowski, E. (989). Cálculo con Geometría Analítica. da. Edición. Grupo Editorial Iberoamericana []. John C. Russ (998) The Image Processing Handbook, 3rd ed. Ed. IEEE Press., [3]. Pogorélov A.V. (974), Ed. Mir. Moscú, Geometría elemental. Dora María Calderón Nepamuceno: Doctora en Ciencias en la especialidad en Control Automático. Profesora Investigadora de tiempo completo en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Ingeniería de software e Inteligencias Artificial (Sistemas Basados en conocimiento). Gabriela Kramer Bustos. Maestra en Ciencias de la educación. Profesor Investigador de tiempo completo en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Educación. Efrén González Gómez. Maestro en Ciencias en Sistemas Computacionales. Profesor Investigador de tiempo completo en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Reconocimiento de Patrones e Inteligencias Artificial Doricela Gutiérrez Cruz. Doctora en Sistemas. Profesor de tiempo completo en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Ingeniería de software e Inteligencias Artificial (Sistemas Basados en conocimiento). Edgar Figueroa Arenas. Alumno décimo semestre de la licenciatura en Ingeniería en Sistemas Inteligentes, en la Universidad Autónoma del Estado de México Unidad Académica Profesional Nezahualcóyotl. Áreas de interés: Reconocimiento de Patrones e Inteligencias Artificial 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

162 REDUCCIÓN DEL ORDEN DE PROCESO DE FUSIFICACIÓN MEDIANTE DISEÑO DE ARQUITECTURA EN FPGA Resumen La lógica difusa ha encontrado una gran aceptación y utilidad en el control automático, debido a las ventajas que ofrece tales como robustez a las incertidumbres e imprecisiones, versatilidad, sin embargo la reducción del orden de un algoritmo de inferencia difusa permitiría abrir las puertas a la lógica difusa a aplicaciones en las cuales no tiene el mismo impacto debido a su costo computacional, tales como el procesamiento digital de imágenes en tiempo real o el procesamiento de señales en tiempo real. En el presente trabajo se desarrollan estrategias para la reducción de orden de un algoritmo de fusificación, proceso importante en cualquier sistema de inferencia difusa, haciendo uso de las herramientas que el FPGA ofrece, tales como el paralelismo, memoria distribuida o máquinas de estados finitos. EMANUEL ONTIVEROS ROBLES Universidad Autónoma de Baja California. emanuel.ontiveros@uabc.edu.mx JOSÉ LUIS GONZÁLEZ VÁZQUEZ Universidad Autónoma de Baja California. jose.gonzalez@uabc.edu.mx OLIVIA MENDOZA DUARTE Universidad Autónoma de Baja California. omendoza@uabc.edu.mx Palabras claves Complejidad de algoritmos, Lógica difusa, Fusificación, FPGA.. INTRODUCCIÓN El orden o complejidad de un algoritmo [] puede no ser relevante si se trata de un algoritmo que maneja una cantidad de datos relativamente pequeña, sin embargo existen campos de la computación en los cuales la cantidad de datos es enorme y por consiguiente, el reducir la complejidad de un algoritmo juega un papel crucial para poder llevar a cabo y darle utilidad a los mismos; uno de estos campos es el procesamiento de imágenes, donde se manejan gran cantidad de datos y con entornos variables. Otro campo en el cual es deseable la reducción del orden de un algoritmo es en donde se lleva a cabo un procesamiento constante y en tiempo real. Considerando las ventajas que ofrece la implementación de la lógica difusa, tales como la tolerancia a perturbaciones (hablando de entornos variantes y con ruido) y la versatilidad que proporciona tener una base de conocimiento propuesta por un experto, se considera una alternativa atractiva y que no ha sido aprovechada al máximo en este diversos campos de procesamiento digital de señales, control, entre otros debido al costo computacional que representa. [] Debido a que se considera a la fusificación un proceso común tanto en sistemas de inferencia difusa de Mamdani o TSK (Takagi Sugeno Kang), en el presente trabajo se lleva a cabo un análisis de la complejidad del proceso como bloque funcional de un sistema de inferencia difusa [], con el fin de identificar el alcance y capacidades de la implementación en software considerando la carga computacional y proponer una arquitectura en VHDL que atienda la necesidad de reducir el orden de este algoritmo, y establecer argumentos que permitan determinar el alcance de una posterior arquitectura del proceso de inferencia difusa como herramienta de procesamiento de alta velocidad [4]. Para lograr la reducción del orden del algoritmo se hace uso del paralelismo y el empleo de flujo de datos por medio de máquinas de estado finito, para diseñar estratégicamente una arquitectura para la fusificación reduciendo así su complejidad y disminuyendo el tiempo de procesamiento [].. ORDEN DE ALGORITMO DE FUSIFICACIÓN Con el propósito de explicar el contexto del grado de complejidad y del alcance de las estrategias propuestas en el trabajo se define el concepto de orden de un algoritmo, posteriormente una breve referencia a los conceptos de máquina de inferencia difusa para posteriormente ahondar sobre la complejidad que implica el proceso de fusificación. ORDEN DE LOS ALGORITMOS El orden o complejidad de un algoritmo se refiere a la cantidad de operaciones que contiene o bien a la cantidad de memoria que requiere []. El orden de un algoritmo puede ser de igual forma expresado por el comportamiento que tenga un algoritmo en función de sus datos o de sus argumentos de entrada, siendo el orden lineal el deseado y ordenes como el factorial, el polinomial, entre otros, los no deseados. A continuación se muestra un ejemplo de reducción de orden de algoritmo mediante paralelismo. Considerando la siguiente operación aritmética, suma de cuatro productos. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 53

163 ( ) Como se puede apreciar en Fig., el número de operaciones para la resolver la ecuación es 7, 4 multiplicaciones y 3 sumas. Figura : a) Procesamiento centralizado, b) Paralelismo AxB CxD + ExF GxH + + (A) mediante la evaluación de funciones matemáticas conocidas como funciones de membrecía. Existen gran cantidad de funciones de membrecía pero en el presente trabajo se realiza la fusificación mediante la función trapezoidal, debido a que es de bajo orden y que contiene como un caso puntual, cuando b es igual a c, a la función triangular. [] Figura 3: Función trapezoidal a b c d AxB CxD ExF GxH Fuente: elaboración propia Se puede observar como de esta manera el número de operaciones efectivas se reduciría a, puesto que todas las multiplicaciones y las sumas se harían de forma paralela. MÁQUINA DE INFERENCIA DIFUSA El objetivo de una máquina de inferencia difusa es poder depositar en ella una representación del conocimiento de un experto en forma de reglas si-entonces de forma lingüística con valores continuos de verdad (membrecía) en el intervalo 0 a, de esta forma, la toma de decisiones se aproximaría más al conocimiento humano y se obtiene un sistema tolerante a perturbaciones e incertidumbres, lo cual lo hace versátil [, 3, 4]. Figura : Maquina de inferencia difusa Base de reglas Σ (B) Fuente: elaboración propia Debido a que la función trapezoidal es una función no lineal, como se observa en la Fig. 3, es necesario realizar una evaluación por intervalos, se expresa en la ecuación. ( ) { () ALGORITMO DE EVALUACIÓN DE FUNCIÓN DE MEMBRECIA El algoritmo presentado en Fig. 4, hace referencia a la evaluación de una función de membrecía, individual, como evaluación de la ecuación. Figura 4: Algoritmo de evaluación de función trapezoidal EvaluarMF(X, a,b,c,d,m,m,mf) si Xi<a MF =0 Xi<b si MF=mX Xi<c si MF= Fusificación Inferencia difusa De Fusificación Xi<d si MF=mX Fuente: elaboración propia MF=0 En la Fig., se muestra el esquema general de una máquina de inferencia difusa, en el presente trabajo se dirige la discusión hacia el primer bloque, la fusificación. Fuente: elaboración propia Retorno FUSIFICACION La fusificación es el bloque encargado de la conversión de los valores numéricos a valores lingüísticos, esto En el algoritmo se puede observar que se ejecutan al menos 5 procesos, hablando de un procesamiento centralizado como en una PC, esto implicaría que el orden del algoritmo es lineal se expresa en la ecuación 3. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 54

164 ( ) (3) Sin embargo, el proceso de fusificación implica la evaluación del conjunto completo de funciones de membrecía, esto implica que el orden de la fusificación sería el orden de la evaluación individual de la función de membrecía, multiplicado por n numero de funciones. Figura 5: Conjunto de funciones de membrecía bloque multiplicador mediante lógica combinacional y dos valores estáticos que se asignan en caso de cumplirse las condiciones correspondientes a las regiones de la evaluación del trapecio. Es posible de esta manera realizar la evaluación de una función trapezoidal en tan solo un paso, y no en cinco, y cuyo único retraso es le inherente asociado a la no idealidad de los bloques combinacionales del FPGA (Fig. 6). Figura 6: Modulo para evaluación de función trapezoidal MFi(x) mx Grado de verdad MF MF MF3 MF4 MFn- MFn X mx 0 Fuente: elaboración propia Dominio de la variable Fuente: elaboración propia ( ) (4) De tal manera, el orden de la fusificación en el presente trabajo se expresa en función del número de funciones de membrecía a evaluar (ecuación 4). ESTRATEGIAS DE DISEÑO PARA LA REDUCCIÓN DE ORDEN Un dispositivo FPGA (Field Progammable Gate Array) se trata de un dispositivo con bloques lógicos que tienen la ventaja de ser reconfigurables, haciendo de este un versátil dispositivo que puede albergar operaciones tan complejas como él mismo. Dichos módulos operativos pueden ser descritos mediante el lenguaje VHDL, se trata de un lenguaje descriptor de hardware. [] En el presente trabajo se buscara hacer uso del VHDL para la implementación de la fusificación, dicha alternativa ha sido explorada por ejemplo en [3,4] sin embargo, se propone la evaluación del sistema mediante la complejidad del algoritmo, y se aborda la discusión no solo desde el bajo nivel de los datos que se emplean sino desde el contexto de matemáticas discretas []. Haciendo uso de esta estrategia el orden de la evaluación de una función de membrecía se reduce a (ecuación 5). ( ) (5) ARQUITECTURAS PROPUESTAS PARALELA MÍNIMO TIEMPO DE EJECUCIÓN La estrategia de diseño para la obtención del tiempo mínimo de ejecución se basa en el paralelismo, como muestra Fig. 7, Al realizar en un solo periodo la evaluación de todas las funciones de membrecía, la función se lleva a cabo en el menor tiempo posible y se mantiene constante independientemente de las funciones de membrecía que se evalúen. Figura 7: Modulo paralelo para la fusificación Fusificación x MF(x) MF(x) MFn-(x) MFn(x) Fuente: elaboración propia ESTRATEGIA PARA EVALUACIÓN DE FUNCIÓN TRAPEZOIDAL La estrategia empleada para la evaluación de las funciones de membrecía es básicamente un selector y un ( ) (6) El orden del algoritmo permanece constante (ecuación 6), sin embargo esta estrategia consume una cantidad de recursos proporcional al número de funciones de 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 55

165 membrecía, debido a esto su demanda de recursos le impide aplicaciones con una cantidad de funciones de membrecía que superen los recursos del FPGA [6] ITERATIVA OPTIMIZACIÓN DE RECURSOS La estrategia de diseño para la optimización de recursos surge de la implementación del paralelismo en conjunto con herramientas como la memoria distribuida y una máquina de estados finitos (Fig. 8). Figura 8: Modulo iterativo para fusificación Fusificación Reg_MF EXPERIMENTACIÓN Y RESULTADOS A continuación se presentan los resultados obtenidos en términos de reducción de orden (número de operaciones por fusificación) y del tiempo de procesamiento mediante simulaciones realizadas en el software ISE de Xilinxs. COMPARACIÓN DEL ORDEN DE LOS ALGORITMOS La Fig. 0 que muestra el comportamiento del orden del algoritmo de fusificación en las tres estrategias discutidas, en software (Matlab), Paralela y la iterativa (VHDL). x MFi(x) Reg_MF Figura 0: Comparación de variantes de fusificación Reg_MFn- ROM Reg_MFn CLK Maquina de estados finitos Fuente: elaboración propia La arquitectura iterativa funciona controlando el flujo de datos mediante la máquina de estados finitos y ejecutando la evaluación de cada función de membrecía de manera secuencial. El algoritmo en Fig. 9 explica el flujo de datos que se lleva a cabo por medio de la máquina de estados finitos. Figura 9: Algoritmo de la máquina de estados (fusificación iterativa) Inicio Xi, MFi params Eval mf Fuente: elaboración propia Como se puede observar, el orden de la fusificación puede ser reducido en gran medida mediante las estrategias planteadas. SIMULACIONES Eval mf Eval mf3 Eval mfn- Eval mfn Guarda mf Guarda mf Guarda mf3 Guarda mf- Para las siguientes simulaciones (Fig., Fig. ) se emplearon 4 funciones de membrecía y se da cuenta del retardo aproximado en el procesamiento, se realizaron en el software de simulación que ofrece ISE [7]. Figura : Respuesta de fusificación iterativa Guarda mfn Fuente: elaboración propia ( ) (7) En esta propuesta se logra un algoritmo de orden lineal (ecuación 7), es decir que el tiempo de ejecución es proporcional al número de funciones de membrecía, aunque a diferencia de la arquitectura paralela, en esta arquitectura la cantidad de recursos empleados se requieren relativamente estática. Fuente: elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 56

166 Figura : Respuesta de fusificación paralela Fuente: elaboración propia En la Tabla, se sintetizan los resultados con fines de comparar las estrategias de fusificación discutidas. Se refiere como recursos al recurso más limitado los MULT8X8 o módulos multiplicadores. Tabla : Comparación de alternativas de fusificación Arquitectura Retardo % Recursos Orden Iterativa ~60nS 5% N Paralela ~0nS 0% Hardware (Matlab) ~78µS NA 5n 3. CONCLUSIONES Fuente: elaboración propia Las arquitecturas propuesta obtuvieron un resultado satisfactorio, debido a que el objetivo era el de reducir el orden del algoritmo de fusificación, se tienen pues criterios para decidir entre una arquitectura u otra, mientras que la arquitectura paralela ofrece el máximo de velocidad también requiere muchos recursos, como se muestra en la tabla los MULT8X8 son bloques dedicados a la multiplicación y que al alcanzar el límite de los mismos la tasa de crecimientos de recursos se dispararía geométricamente, esto significa que para poder hacer uso de esta estrategia es necesario invertir en un FPGA con mayores recursos y por ende más costoso, su contraparte, la arquitectura iterativa se puede considerar como una arquitectura más equilibrada en términos de velocidad y recursos y puede ser empleada en aplicaciones más complejas sacrificando tasas de procesamiento. En posteriores trabajos se buscara el diseño de arquitecturas que complementen a las diseñadas en el presente trabajo, con el fin de completar una arquitectura que realice todo el proceso de una inferencia difusa, esto con el fin de expandir el horizonte de aplicaciones de la lógica difusa hacia áreas más demandantes de la tecnología. 4. REFERENCIAS []SeymourLipschutz, MATEMÁTICAS DISCRETAS, 3rd. ed., Mc Graw Hill, 009. [] Kevin M. Passino, Fuzzy Control, 3rd. ed., Addison Wesley Longman, 009. [3]Gonzalez J.L. et al, FPGA as a Tool for Implementing Non-fixed Structure Fuzzy Logic Controllers, Industrial Electronics, Foundations of Computational Intelligence, 007. FOCI 007. IEEE Symposium on, pp [4] K. M. Deliparaschos, et. al, A Fast Digital Fuzzy Logic Controller: FPGA Design and Implementation, Emerging Technologies and Factory Automation, 005. ETFA th IEEE Conference on Vol.. 4pp [5]Pong P. Chu, FPGA PROTOTYPING BY VHDL EXAMPLES Xilinx SpartanTM-3 Version, st. ed., John Wiley & Sons, 008. [6] Spartan-3E FPGA Starter Kit Board, User s Guide, Xilinx, 0, pp [7] ISE, In-Depth Tutorial, Xilinx, 0, pp Emanuel Ontiveros Robles. : Ingeniero Electrónica por la Universidad Autónoma de Baja California. Estudiante de Maestría en Ciencias (Electrónica) por UABC. José Luis González Vázquez. : Ingeniero Industrial en Electrónica; Maestría en Ciencias Computacionales, por Instituto Tecnológico de Tijuana; Doctorado en Ciencias por UABC. Olivia Mendoza Duarte: Ingeniero en Computación por UABC, Maestría en Ciencias Computacionales, por Instituto Tecnológico de Tijuana; Doctorado en Ciencias por UABC. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 57

167 RENDIMIENTO DE PROCESADORES MANYCORE SOBRE TOPOLOGÍA D Resumen-- Actualmente atrae la atención, investigaciones en sistemas de procesadores, que funcionen con computó paralelo, donde la compartición de memoria, es una de las alternativas para atender la necesidad de optimizar el rendimiento de procesos. Se presenta el análisis del rendimiento de estos sistemas escalares, superescalares, multicore y manycore, siendo el manycore con topología D el que demostró un rendimiento 0 veces mejor que los anteriores, en tiempo de respuesta (Epiphany-GPU 9. ciclo máquina a 600 MHz y Arm ciclos máquina a 667 MHz). El manycore presento mejores resultados en tiempo de ejecución, tiempo de acceso a memoria, rendimiento y bajo consumo de energía estos son factores directos que influyen en el alto rendimiento. TEODORO ÁLVAREZ SÁNCHEZ RAUL MUÑOZ ORTIZ ANDRÉS CALVILLO TÉLLEZ MIGUEL ÁNGEL ROMERO MIRANDA Instituto Politécnico Nacional, CITEDI. Av. del Parque No. 3O, Mesa de Otay, Tijuana, Baja California, MÉXICO. rmunoz@citedi.mx talvarez@citedi.mx calvillo@citedi.mx romero@citedi.mx Palabras Claves-- Multicore, Manycore, memoria compartida, topología.. INTRODUCCIÓN Por más de 60 años - desde los primeros días de las mainframe a través de la revolución de la PC de la década de 980 y el éxito de hoy de dispositivos móviles inteligentes - la tecnología de procesador siempre ha evolucionado para satisfacer las expectativas de los usuarios, en los tiempos de conducción de innovaciones imprevistas en la industria de la computación. Dada la diversidad de los nuevos dispositivos móviles que lleguen al mercado sobre una base diaria, las innovaciones del procesador siguen siendo una fuerza poderosa para el cambio [6]. Con la incorporación del cómputo móvil, la arquitecturas de procesador se han desplazado a las computadoras de escritorio tradicionales, incluso a las laptop, esto es impulsado por el rendimiento, portabilidad, compacto, ahorradores de energía, alta integración, rapidez, en parte económica es otro factor determinante para la evolución de la Investigación en computación, etc. Es importante señalar, que el procesador es llamados actualmente core, los procesadores muticore o manycore poseen más de un core, es decir más de una unidad de cómputo en un mismo encapsulado. Esto aumenta el rendimiento, en especial si se utilizan más de una aplicación al mismo tiempo. Hoy en día, los beneficios de esta alto rendimiento, la arquitectura de procesador de bajo consumo están dando sus frutos en dispositivos como televisores digitales y settop boxes, equipo de oficina, como impresoras y copiadoras y dispositivos móviles como tabletas, unidades de juegos portátiles, y smartphones. Desde mediados del 000 se han propuesto a desarrollar CPUs, mejorando en el rendimiento de un solo thread, no sólo se vuelve cada vez más difícil, pero también va en contra de las limitaciones de eficiencia energética de los dispositivos. Esto se debe a que exponencialmente, se requiere más energía para obtener un porcentaje de rendimiento. La Solución multicore pueden ofrecer un mayor rendimiento en las frecuencias comparables a los diseños de un solo core, mientras que ofrece un ahorro energético importante en términos de costo y eficiencia. Además, las soluciones de múlticore pueden aprovechar los cores con su gran cantidad de transistores optimizando, al suministrar la alimentación a ellos sólo cuando sea necesario. En esencia, esto puede ser pensado como el equilibrio de carga inteligente. No sólo un sistema necesita ser considerado, cual el procesador es el más adecuado para ejecutar una tarea específica, sino que también debe tener en cuenta el rendimiento requerido de esa tarea y asignarla al procesador más adecuado con la energía disponible. El uso de cores necesarios, esto nos permite mantener los demás inactivo ayudando al consumo de energía, que no afecta el rendimiento. Como las tareas se distribuyen a través de múltiples núcleos de procesador. Un procesador diseñado con tecnología de los 80 no podría funcionar a plena capacidad reduciendo voltaje y frecuencia de reloj. Los procesadores multicore permiten que el voltaje y la frecuencia sea reducidos. Esto se traduce en ahorros de energía significativos relacionados con el rendimiento global del sistema. Un enfoque de "múlticore" para procesamiento multicore requiere ejecutar cargas para ser compartidos a través de muchos procesadores más pequeños, tal como un Cortex-A5, en vez de simple thread con múltiples cargas de trabajo de un solo procesador core. Los diseñadores de procesadores están implementando cada 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 58

168 vez más grupos de procesadores para trabajar juntos, compartiendo datos y tareas entre los caches o varias instancias del mismo procesador. Muchos core se vuelve aún más interesante ya que los procesadores más pequeños trabajan juntos para ofrecer un nivel de ejecución combinado con menor consumo de energía que un gran procesador de multitarea con la misma carga de trabajo. Como se mencionó anteriormente, los costos asociados con un mayor rendimiento sobre un subproceso son exponenciales; Sin embargo, con el procesamiento multicore el costo se vuelve más lineal en escala. Los diseñadores están utilizando muchos cores para reducir significativamente los costos al integrarlos al sistema. Como diseñadores de hardware comienzan a implementar estos sistemas de múltiples cores, los desarrolladores de software tendrán que producir código capaz de utilizar una solución de procesamiento múlticores. Hasta entonces, los dispositivos deben tener la capacidad de ejecutar tareas de alto rendimiento. Un ejemplo de un sistema que contienga ambos multicores de alto rendimiento y la mayor eficiencia de energía de muchos cores en el sistema CPU y GPU, donde el GPU de muchos cores puede entregar cómputo gráfico utilizando menos energía que multicore CPU. Dado que el GPU sigue siendo coherente con el CPU y comparte sus cachés, ancho de banda de memoria externa y la demanda del rendimiento del CPU se puede reducir. Los lenguajes como CUDA, OpenCL/C/C++, Phyton para epiphany están trabajando para las aplicaciones más genéricas. La arquitectura Epiphany es una de las últimas arquitecturas manycore en aparecer; se trata de una arquitectura de 6 o 64 cores, expandible hasta 4,096 cores en un futuro. Entre sus características notables se encuentran una arquitectura manycore, escalable, con memoria compartida capaz de ejecutar cómputo paralelo. Esta arquitectura ofrece una potencia de 50 Gigaflops por watt en cálculos de simple precisión. Está fabricada con el proceso de manufactura de 8 nm y está conformada por 6 y 64 núcleos basados en una arquitectura RISC e interconectados vía una red interna de alta velocidad; el chip funciona a una frecuencia de 800 MHz, ofreciendo una potencia de 00 gigaflops y un TDP (thermal design point) de apenas W. Cada uno de sus núcleos utiliza un diseño muy simple, el cual es similar a los núcleos de los GPU o de aceleradores como Xeon Phi, obviamente sin el hardware x86 de este último. En la figura, se muestran los componentes claves en la arquitectura Epiphany. Figura. Componentes de la Arquitectura Epiphany. Fuente: Elaboración propia Un superes calar, un CPU RISC de punto flotante en cada nodo que puede ejecutar dos operaciones en punto flotantes y una operación de carga en memoria de 64 bits con cada ciclo de reloj. La memoria local en cada nodo proporciona 3 Bytes/ciclo de ancho de banda sostenido y es parte de un sistema de memoria compartida, distribuida. La infraestructura de comunicación Multicore en cada nodo que incluye una interfaz de red, un acelerador DMA multicanal, decodificador de dirección multicore y una red de monitores. Una red de malla D con latencias comunicación en el chip de nodo a nodo en nanosegundos, con cero sobrecarga inicial.. METODOLOGÍA De manera general la investigación del sistema de manycore procesa los datos de la imagen Lena.jpg que tiene la imagen imperfecciones por la captura del dispositivo: La investigación la dividimos tres fases: En la primera fase, el sistema obtener la imagen de Lena.jpg En la segunda fase, se analizara la imagen alteradas con ruido gaussiano, es un tipo de ruido generado por el dispositivo de captura (cámaras y escáner)[][]. En la tercera fase, se ejecutara el programa que llame a la imagen Lena, a esta imagen que se le aplique el filtro basado en el dominio en frecuencia y que sea ejecutado con core, 4 cores y 6 cores obteniendo los resultados de las ejecuciones desplegadas en el monitor como se muestra en la figura. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 59

169 Figura. Proceso de restauración de imagen a través de filtros. I R Fuente: Elaboración propia. DESARROLLO DEL SISTEMA En la actualidad, las computadoras modernas cuentan con procesadores de arquitectura multicore, las cuales integran varias unidades de procesamiento en un sólo encapsulado. Estos procesadores son capaces de ejecutar simultáneamente varias tareas utilizando hilos, procesos o por paso de mensajes, permitiendo con esto que las aplicaciones se ejecuten en menor tiempo. Para explotar el paralelismo disponible a nivel de hardware, la aplicación debe ser descompuesta en diferentes partes. De esta manera cada unidad de core disponible podría ejecutar una parte de la aplicación en paralelo con otras unidades cores. La descomposición de la aplicación debe ser seguida por la sincronización de las diferentes partes de la aplicación para asegurar que se conserva la consistencia. Además, la programación paralela se puede implementar de diferentes formas y con distintos lenguajes de programación [5]. La arquitectura Epiphany utilizada para el desarrollo de esta investigación, posee un modelo de programación neutral y compatible con la mayoría de los métodos de programación paralela, incluyendo: SIMD Single Instruction Multiple Data, SPMD Single Program Multiple Data, programación maestroesclavo, MIMD, Flujo de datos estático y dinámico, Array sistólico, Multihilos de memoria compartida, paso de mensajes y CSP - Procesos de Comunicación Secuencial. EL código puede escribirse en lenguaje C/C++ estándar, compilarse y ejecutarse en un solo núcleo, siempre que las matrices A, B y C sean colocadas en la memoria local de los núcleos. En este ejemplo de programación, no existe diferencia entre la arquitectura Epiphany y alguna otra plataforma con un solo procesador. Para acelerar el cálculo matemático, es posible utilizar varios núcleos simultáneamente. Primero se distribuyen las matrices A, B, C en P tareas. Por la naturaleza estructural de una matriz, la manera más adecuada de distribuir las tareas, es por bloques pequeños. Para ello se hacen programas (SPMD Single Program Multiple Data) que se ejecutan en cada uno de los núcleos. La figura 3. muestra que la multiplicación de matrices puede dividirse en 6 tareas y cada una de ellas ejecutada en los núcleos de la red. La transferencia de datos durante I F la ejecución de las tareas, entre cada nodo, se realiza mediante la interfaz para paso de mensajes incluida en el entorno de programación de Epiphany (SDK) o directamente escribiendo en la memoria compartida global[4]. La multiplicación de matrices en paralelo se completa en P pasos, (donde P es el número de procesadores), con cada tarea de multiplicación de matrices operando sobre el conjunto de datos que son del tamaño de P por P. En cada paso del proceso, se hacen modificaciones a la matriz C, después de lo cual la matriz A se mueve hacia abajo y la matriz B se mueve a la derecha. Este ejemplo se puede programar utilizando lenguaje de programación estándar ANSI. La arquitectura Epiphany proporcionan funciones específicas para simplificar la programación multicore, pero su uso no es obligatorio, esta arquitectura permite a los programadores innovar en todos los niveles. Este algoritmo, implementado en la arquitectura Epiphany con 6-cores operando a GHz, resuelve la multiplicación de matrices de 8 x 8 en ms. Este ejemplo demuestra cómo es posible escalar la arquitectura para miles de cores y cómo crece linealmente el rendimiento de la arquitectura Epiphany con el número de cores cuando se utilizan modelos adecuados de programación y distribución de datos [4]. Figura 3. Flujo de datos en la multiplicación de matrices. Fuente: Elaboración propia 3. BENEFICIOS CLAVE DE LA ARQUITECTURA La arquitectura Epifanía fue diseñada para un buen rendimiento en una amplia gama de aplicaciones, pero realmente se destaca en aplicaciones con alta localidad espacial y temporal de los datos y código. Ejemplos de 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 60

170 tales dominios de aplicación incluyen: procesamiento de imágenes, la comunicación, el procesamiento de la señal del sensor, el cifrado y la compresión. Alta velocidad de comunicación entre procesadores son compatibles con la Epifanía arquitectura D Mesh Red-on-Chip (NOC), que se muestra en la figura 3b, que se conecta los nodos de procesador en un chip. La red de malla para el tráfico en alto rendimiento es usada en aplicaciones en tiempo real. Figura 4b. Consumo de energía de Epifanía La red se aprovecha de localidad espacial y una abundancia de cables cortos punto a punto en el chip para enviar Transacciones completas que consiste en dirección de origen, dirección de destino, y los datos en un solo ciclo de máquina. Cada enlace de enrutamiento puede transferir hasta 8 bytes de datos en cada ciclo máquina, lo que permite 64 bytes de datos a fluir a través de cada nodo de enrutamiento en cada ciclo máquina, el apoyo a un ancho de banda efectivo de 64 GB/seg a una frecuencia de funcionamiento de la malla de GHz. A continuación tenemos las siguientes figuras 4a y 4b que nos muestra diferentes arquitecturas del mismo enfoque de alto rendimiento y el consumo de energía que tiene Epifanía. Facilidad de uso: Una arquitectura de múltiples núcleos que sea programable con ANSI-C/C+ +. Esto hace que la arquitectura sea accesible a todos los programadores, independientemente de su nivel de experiencia. Eficacia: Las instrucciones de propósito general para superescalar, bancos de registros sin restricciones, se asegura de que el código de aplicación escrito en ANSI-C puede acercarse al rendimiento teórico máximo de la arquitectura de la Epifanía. Baja potencia: Optimizaciones de micro arquitectura, una alta integración de circuitería eléctrica y un amplio periodo de tiempo, que permite hasta 70% de eficiencia de procesamiento Gflop/Watt, utilizando tecnología de diseño de 8nm. Fuente: Elaboración propia VENTAJA EFICAZ DE EPIFANÍA La arquitectura Epifanía es un desarrollo tecnológico muy bien diseñado y estructurado. Este diseño ya ha completado cuatro generaciones de silicio de la arquitectura, la tabla muestra claramente las ventajas de características de la arquitectura, la epifanía en comparación con otras arquitecturas del mismo enfoque de la competencia. En la figura 5 se muestra las ventajas de la eficiencia indiscutible de la arquitectura Epifanía. Tabla.Caracteristicas de cores Escalabilidad: La arquitectura puede escalar a miles de núcleos en un solo chip, y millones de núcleos dentro de un sistema más grande. Esto proporciona la base para las futuras mejoras en el rendimiento de un mayor paralelismo. Figura 4a. Comparación de arquitecturas Fuente: Elaboración propia Fuente: Elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

171 Figura 5. Eficiencia de la arquitectura Epifanía Figura 6. Rendimiento del core Epiphany TIEMPO RENDIMIENTO 9.% Cores CORES 6 CORES Fuente: Elaboración propia CARGAS DE TRABAJO Fuente: Elaboración propia Una de las grandes ventajas de esta arquitectura es que cualquiera que esté familiarizado con C/C ++ puede lograr grandes resultados en muy poco tiempo. Absolutamente no hay idiomas, bibliotecas o construcciones de programación propietarias que se requieran. En la tabla se muestra las latencias de tiempo de ejecución en diferentes lenguajes y la eficiencia sobre arquitecturas SIMD. Tabla. Rendimiento de cargas de trabajo 5. CONLUSION En este momento, el procesador actual Epiphany-IV funciona a 800 MHz, y se espera que alcance una precisión de 70 gigaflops/vatio, dos veces la eficiencia proporcionada en los sistemas anteriores. En el mercado de supercomputo, este procesador tendrá que competir con las soluciones GPGPU de AMD y Nvidia(Tesla M050, GPU GeForce GT 0, GPU GeForce9800 GX, Tilera(Tile-Gx), así como el con procesador Knights Ferry MIC, y con otros microprocesadores diseñados con FPGA de otras marcas. El CPU Epiphany-IV esta, diseñado con una tecnología de 8nm, con lo cual este CPU tendría una virtud muy importante, porque será capaz de tener un buen rendimiento en un espacio pequeño, sin incrementar demasiado el consumo energético, por lo que esta plataforma Epiphany-IV, demuestra una ruta de acceso inmediato hacia la meta de 50 GFLOPS por vatio, que DARPA debería alcanzar en 08 en aplicaciones de computación de alto rendimiento. Agradecimientos 4. RESULTADOS Fuente: Elaboración propia En la figuras 4a, 4b, 6 y tabla mostramos la equivalencia de las arquitecturas SIMD con la arquitectura Epifanía en consumo y rendimiento, en este momento se tiene contemplado en trabajar sobre las siguientes generaciones del procesador Epiphany-IV de 64 y 8 procesadores, que funciona a 800 MHz, para tener resultados prácticos sobre las arquitecturas multicore, manycore donde hay que ser radical, para mejorar la eficiencia energética donde debe haber cambios en la manera de programar y educar en la manera de pensar de cómo ejecutar dos o más tareas simultáneamente acompañado con los conceptos del ahorro de energía, como un dato importante Epifanía competirá con rivales como Tilera, Nvidia, Advanced Micro Devices, ARM e Intel, se espera que alcance una precisión de 70 y 00 Gigaflops/watts. El resultado de este trabajo se deriva del proyecto SIP , apoyado por la Secretaría de Investigación y Posgrado del IPN. 6. REFERENCIAS [] Reza. H. M, An Anisotropic Fourth-Order Di_usion Filter For Image Noise Removal, International Journal of Computer Vision, Vol. 9. No. pp [] Vajda. A, Multi-core and Many-core Processor Architectures, pp 3. May 0. [3] Sánchez, M. G. y col, Performance Evaluation of using Multi-Core and GPU to Remove Noise in Images, [En línea]. pp. 7,8,06, 3, 0b. [4] Epiphany, SDK Reference Manual (04)[En línea]. Disponible en: _sdk _reference pdf 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 6

172 UNA SIMULACIÓN SPEC95 PARA IDENTIFICAR EL AHORRO DE ENERGÍA Y CONSUMO DE ENERGÍA EN CACHES EN POWER PC Y ALPHA PROCESADORES Resumen-- El caché es una pequeña memoria que funciona más rápido que la memoria principal; modernos diseñadores procesadores ponen varios escondites en una unidad central de procesamiento para aumentar el rendimiento y la funcionalidad. Un diseño de memoria caché optimizado es el único factor para alcanzar un alto rendimiento del procesador. En este trabajo se comparó la eficiencia del consumo de energía, como parámetros importantes en el diseño de la arquitectura de procesadores y memorias caché. Los parámetros de medición y políticas de localización se establecieron (asignación directa, asociativa, asociativa establecido) en cachés de memoria L, L. Se implementa en procesadores PowerPC, Alpha (tecnología RISC ) y los procesadores superescalares. El modelo de caché se propuso el uso de una simulación con las cargas de trabajo y SPEC95 SimpleScalar 3v0e. TEODORO ALVAREZ-SANCHEZ Instituto Politécnico Nacional, CITEDI Av. del Parque No. 3O, Mesa de Otay Tijuana, Baja California, México. JESÚS ALVAREZ-CEDILLO JUAN. HERRERA-LOZADA JACOBO SANDOVAL-GUTIERREZ Instituto Politécnico Nacional CIDETEC, UP Adolfo López Mateos Edif. CIDETEC, México D.F., México. jalvarez@ipn.mx, jlozada@ipn.mx jsandovalg@gmail.com Palabras claves-- memoria caché. 3v0e SimpleScalar, el consumo de energía,. INTRODUCCIÓN La diferencia entre el CPU y rendimiento de la memoria sigue creciendo, esta tendencia continua plantea un grave problema para el futuro desarrollo del procesador y rendimiento. Debido a los fallos de la cache, el procesador tiene que detenerse, perdiendo tiempo valioso del CPU que se refleja en su rendimiento. Esto es especialmente cierto para los programas científicos donde el acceso a cache es inmenso provocando grandes fallas para todas las jerarquías de cache. Las caches hay de dos tipos: inclusivas y exclusivas. Durante el acceso a la cache del sistema de cache se consume energía. La energía consumida se puede reducir por diversos métodos. Cachés Inclusivas que tienen una línea en todos los niveles de cache. Las caches exclusivas se encuentran sobre una amplia aplicaciones como son los multicore. Una línea de cache sólo está presente en un nivel de cache exclusiva. Convenientemente esto permitir que sólo la línea de cache visitada consuma la energía, de esta manera se reduciría la energía. En este trabajo se propone un modelo de cache que se simulara en forma conjunta con el simulador Simplescalar 3v0e. El modelo propuesto se desarrolla para cachés exclusivas. El modelo puede ser modificado convenientemente para cachés inclusivas. Se supone que la cache exclusiva tradicional. Además, del nivel uno de cache tiene otra cache llamada cache de Tag. Esta caché tiene los valores de las variables de todas las vías de caché en todo los niveles. Una dirección está acompañada de una matriz de variables en los distintos niveles. En un combinado. La correspondencia de vía cache accede. Sobre la falla, se proponen la política de sustitución en la cache exclusiva [] es implementar la actualización de Tag en la cache adecuadamente. En este modelo, sólo la cache Tag junto con las vías de cache corresponde habilitar a los Hits. La cache de Tag (etiqueta) junto con las vías en todos los niveles de las cache, están habilitadas para conflictos de miss (fallos). Esto reduce el consumo de energía. El modelo propuesto fue simulado para dos niveles de cache exclusiva. El resto del trabajo se organiza de la siguiente manera. Sección da la metodología, la sección 3 propuesto modelo, sección 4 análisis de rendimiento, la sección 5 la simulación y conclusión.. METODOLOGÍA Considerando las cargas de trabajo SPECK95, que simularemos en las arquitecturas POWERPC y ALPHA Con la ayuda del simulador Simplescalar 3v0e, lo que integra un conjunto de herramientas de simulación la cual ofrece una infraestructura lo suficientemente capaz para modelar y simular arquitecturas superescalares, multicore. Simplescalar y obtención de datos estadístico para los diferentes configuraciones, niveles de las memorias caches donde proporciona aciertos (Hits) y las falla (miss) de cada corrida. Simplescalar fue 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 63

173 desarrollada por el grupo de la Universidad de Winsconsin-Madison en 99 [5][6], la herramienta está públicamente disponible y ofrece información sobre la instalación de la herramienta además es software libre. SimpleScalar tiene la infraestructura para simular microprocesadores de 8 a 3 bits,, 64 bits y capaz de simular cargas de trabajo. Al simular el diseño de la arquitectura en conjunto con las memorias caches, puede obtener datos de las fallas y aciertos considerando sobre el hardware diseñado. Para las pruebas de rendimiento en consumo de energía se realizaron distintas configuraciones de memorias caches, para ejecutar las cargas de trabajo denominadas benchmark. El simulador a utilizar es ejecución Out of Order. El análisis de investigación se realizará cuatro etapas, variando en algunos casos los parámetros de la memoria cache o el número de unidades lógicas, tiempo de acceso a memoria caches, velocidad de las funcionales (cores). El objetivo de la primera etapa, es simular, el comportamiento de las memorias L (unificada o separada) y memoria L (unificada o separada) configuras desde un inicio. En la segunda etapa se realizará cambios en la configuración relacionado a la cantidad de ALU s, donde se dejara como constante las unidades funcionales modificaremos la configuración inicial para la simular del modelo propuesto en memoria cache unificada L. En la tercera etapa, se realizará cambios en los parámetros de la memoria cache de instrucciones y la de datos. En la cuarta etapa, se refiere el ahorro de energía, que está asociada con la programación, este trabajo propone un método para ahorrar energía en memoria asociativa por conjunto y mapeo directo. El método consiste en mantener el tiempo de acceso, además, tener contador de acceso en cada vía. Todas las simulaciones se realizaron para las configuraciones POWERPC Y ALPHA. En cada apartado de las pruebas se especifica la instrucción para poder ejecutar la simulación. 3. ARQUITECTURA DEL MODELO PROPUESTO mínimo de energía en caché sujeto al tiempo promedio de acceso mínimo. Este trabajo propone alcanzar un algoritmo. La parte del Tag en la dirección es XOR con 7 veces de asociatividad en cache. El resultado se desplaza a la derecha cuatro veces. La vía asignada se obtiene mediante la selección de bit valor de la variable resultante de la asociatividad de cache. Si la línea está presente en el mapa de vías. El número de éxitos se incrementa, la línea es accedida. En caso de fallas, el número de fallos se incrementa, con respecto a la línea que traer el carácter inclusivo de la cache. El sistema cache considera inclusivo dos niveles. Deje que el nivel uno sea w el conjunto asociativo de cache del conjunto S. Deje que el nivel dos sea w conjunto asociativo de cache del conjunto S. Deje que el tamaño de la línea sea en L Bytes. Considere el algoritmo descrito anteriormente. Denotar la implementación el algoritmo del sistema como C prop. La arquitectura del sistema propuesto se muestra en la Fig.. Considere el sistema de caché tradicional con la misma configuración. Denotemos como C trad. En la cache tradicional dejemos que H, H, T, T, T, M sean en variables para el nivel uno de hits, el nivel dos de los hits, tiempo de acceso en nivel uno, tiempo de acceso en nivel dos, tiempo de transferencia entre el nivel uno y nivel dos. Fallas penalizadas en el rastreo de dirección de Referencias R respectivamente. El tiempo medio de acceso a la memoria en la caché tradicional está dada por ( ) : ( ) ( ) AMAT (C trad ) = (HT + (R-H) M) Dirección 0 () Figura. Modelo propuesto de cache XO 000 ; Considere el sistema de caché. La energía consumida por el sistema depende de la cantidad de componentes en cache activos. En la cache asociativa por conjuntos, la energía de consumo depende de la cantidad de vías activas en cache. La función deseada de subsistema de memoria caché se pueden formular como el consumo Fuente: Elaboración propia Dejar que h, h, t, t, t, tf, m sean del nivel uno de hits, tiempo de acceso en nivel uno nivel, tiempo de 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 64

174 acceso del nivel dos, tiempo de transferencia entre el nivel uno y nivel dos, tiempo para ejecutar el mapeo de direcciones a cierta vía, fallo de penalidad respectivamente, del sistema propuesto. El sistema propuesto por AMAT es ( ) : ( ) ( ) AMAT (C prop ) = (ht + (R-h) m) El primer término en la ecuación (3) es el momento de realizar la asignación de direcciones a modo específico. El segundo término es el tiempo que tarda el hit en nivel uno. El tercer término es el tiempo que tarda los hits en nivel dos. El cuarto término es tiempo que toma las fallas. Una mejora en AMAT es observada si consideramos el consumo de energía. () : ( ) ( ) : ( ) ( ) (HT+(R-H)M) (ht+(r-h)m) (3) Suponga que el sistema de caché funciona en dos modos de consumo de alimentación, de alto y de bajo consumo. Durante la no operación de la memoria cache, está en modo de baja consumo. Durante la operación, el conjunto asignado de la cache asociativa tradicional el conjunto está en modo de alto consumo. El modelo propuesto, de una vía en la asignación del conjunto está en modo de alto consumo. La energía consumida E low, E high ser la energía consumida por vía en modo de baja y alta consumo respectivamente en el sistema de cache. La energía total consumida en la caché tradicional está dada por ( ) ( ) ( ) ; ; ( )( ) ; ( )( ) ( ) (4) El primer término de (5) es la energía que se consume en el sistema de caché tradicional durante la no operación. Todos los conjuntos de ambos niveles de caché están modo de bajo consumo. El segundo término es la energía consumida durante los hits del nivel uno. El nivel uno asignado está en modo de alto consumo. El tercer término es la energía consumida durante la falla del nivel uno y los hits del nivel dos. Los conjuntos asignado en ambos niveles de caché están en modo de alto consumo. El cuarto término es la energía consumida durante la falla. Los conjuntos asignado en ambos niveles de caché están en modo de alto consumo. La energía consumida en el modelo propuesto está dada por ( ) ( ) ( ) ( )( ) ( )( ) ( ) (5) El primer término en (6) es la energía consumida por el sistema de caché propuesto durante el no funcionamiento. El segundo término es la energía consumida durante los hits en nivel uno. Una vía de caché está habilitada durante esta operación. El tercer término es la energía consumida durante la falla (miss) del nivel uno y los hits de nivel dos. Una vía de caché de nivel uno y otro conjunto del nivel dos están en este caso de modo de alto consumo. El cuarto término es la energía consumida durante el nivel uno y el fallo de nivel dos. En este caso una vía de caché de nivel uno y otro conjunto del nivel dos están en modo de funcionamiento. Se observa una mejora en el consumo de energía. ( ) ( ) ( )( ) ( )( )( ) ( ) ( ) ( ) ( ) ( )( ) ( ) (6) 4. SIMULACIÓN El modelo propuesto se simula utilizando la herramienta SimpleScalar. Los benchmarks de referencia SPEC95 se ejecutan con el simulador Outorder del SimpleScalar. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 65

175 Utilizamos esta herramienta para la simulación del modelo propuesto. El modelo de caché se valida con los benchmarks SPEC95. Los parámetros para la simulación del modelo propuesto se dan en la Tabla. Se supone que la comparación de Tag se realiza en paralelo. Por lo tanto el tiempo de acceso en nivel uno es adoptar son los mismos que se modelo tradicional y el modelo propuesto. La energía consumida en caché tradicional para las referencias de R está dada por la ecuación (7): Et=SizeCache * Rf*vías*Ec + Rf*vías*Ec (7) 04 * 588*8 * * 8 * 5= 470KJ Para el modelo propuesto, la energía consumida está dada por la ecuación (8): Ep= ET+Rf*Ec + Rf*vías* Ec * SizeCache (8) Tabla Parámetros de simulación Parámetros Valor Tamaño de L 04 Asociativa por conjuntos 8 Tamaño de Línea Tiempo de Hits en mapeo directo Penalidad de fallo en caches tradicionales Penalidad de fallos en cache propuesta Tiempo de Hits en asociativa cache totalmente Tiempo de Hits en modelo propuesto Fallas de penalidad en cache tradicional Fallas de penalidad en cache propuesto Traducción de direcciones por usar la compuerta XOR Fuente: Elaboración propia 3 Bytes ciclo 50 ciclos 50 ciclos 3 ciclos ciclo 50 ciclos 50 ciclos ciclos La energía consumida se calcula a continuación. La memoria caché se supone que opera en modo de alto consumo y bajo consumo. Supongamos que la línea de caché consume 5J (Joule) de energía en modo de bajo consumo y 0J de energía en modo de alto consumo. El número de entradas del vector propietario es de 89 bits o 04 Bytes. Hay 7 bits de campo del Tag, adoptamos una dirección de 3 bits. El tamaño de la cache Tag es de 7408 Bytes. El número de la cache Tag es de 843 Bytes. La energía consumida por la memoria cache Tag es 5760J. 5760J + 588* * 8 * 5 *04= KJ Los valores de energía consumida está dados en la tabla, la energía consumida en el modelo propuesto es comparado con el modelo tradicional. Además en la tabla 3 se tiene los valores de los Hits y Miss de cada una de las arquitecturas utilizadas Nombre test-math Tabla Comparación de Energía de Alpha, PowerPC y PISA 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 66 Etrad KJ Eprop KJ # Total de Referenci -as * #Total de instrucci -ones ejecutadas % Mejora miento ALPHA PowerPC PISA Fuente: Elaboracion propia Benchmar k test-math Tabla 3 Valores de sistema de cache tradicional IL separada y IL unificada #Total Hits IL Miss IL Hits UL Mis s UL Referencias * ALPHA PowerPC PISA Fuente: Elaboración propia El modelo propuesto esta simulado el algoritmo de búsqueda binaria. La búsqueda se encuentra entre 04 números generados al azar entre cero y cien. Con un total de 000 números aleatorios entre cero y cien. Las direcciones de matriz que se accede durante esta búsqueda se recopilaron mediante rutinas de lenguaje C. de

176 Las direcciones se asignan en la memoria caché con el algoritmo propuesto. La Fig. muestra el porcentaje sobre el consumo de energía de los parámetros indicados en la Tabla (excepto el tamaño de la caché, que es variada). Como se ve en la Fig. 3 el número total de instrucciones a ejecutar vs el número total de accesos. Para los conjuntos de caché de tamaño 04, para el modelo propuesto es más que el modelo de caché asociativa conjunto tradicional Figura. Porcentaje en consumo de energía Consumo de energia 9.8 ALPHA PowerPC PISA Fuente: Elaboración propia Figura 3. Porcentaje en consumo de energía. %Mejora Instr ejecutadas vs instr referidas en cache [] S. Subha, An energy saving set associative cache algorithm with improved performance, JATT. Journal of Theoretical and Applied TechnologyOn Aut.. Vol. 6. No 3. pp April 04. [] Patterson and J.L Hennessy, COMPUTER ARCHITECTURE: A QUANTITATIVE APPROACH, 5nd. ed., Morgan Kaufman Publishers, 004. [3] Carlos A. Villar León, Teodoro Álvarez. S. and Roberto C. Herrera, Simulación de cargas de trabajo Spec95 en Simplescaler, Electro 04. Vol. XXXVI. pp [4] Elkin Garcia, Daniel Orozco and Guang R Gao, energy efficient tiling on a Many-Core Architecture, 04. [5] Simplescalar [En línea]. Disponible en: sitio visitado el 0/0/04. [6] Simplescalar instalation.igoy.in [En línea]. Disponible en: sitio visitado el 08/0/04. Teodoro Álvarez Sánchez: Maestría en sistemas digitales por Instituto Politécnico Nacional CINTEC. Estudiante de Doctorado en Ciencias del IPN-CIC(Cómputo Paralelo). 5. CONCLUSION ALPHA PowerPC PISA Total Ref 5388 Fuente: Elaboración propia. 43 Total Ejec 3899 Se propone en este artículo un modelo de caché que varié las vías de forma limitada, el número de vías por conjuntos que sean mínimo. El modelo propuesto se simula con benchmark SPEC95. Se observa una mejora de la energía %, con respecto a la caché tradicional hasta una de mejora un 9.8% con respecto a establecer caché asociativa de vías de la misma capacidad, observando los parámetros escogidos comparando la energía consumida con el modelo tradicional. Jesús Antonio Álvarez Cedillo: Graduado por la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) del Instituto Politécnico Nacional, en la Ciudad de México, como ingeniero en comunicaciones y electrónica en 997 y posteriormente como Maestro en Ciencias de la Informática por la Unidad Profesional Interdisciplinaria de Ingeniería y Ciencias Sociales y Administrativas (UPIICSA) del Instituto Politécnico Nacional en el año 00. Desde 007 es candidato a Doctor en Tecnologías Avanzadas en el Centro de Investigación e Innovación Tecnológica (CIITEC) del Instituto Politécnico Nacional. Ha ejercido como profesor e investigador de tiempo completo del Centro de Innovación y Desarrollo Tecnológico en Cómputo (CIDETEC) desde 000. Ha publicado diversos artículos relacionados con arquitectura de computadoras, procesamiento paralelo y algoritmos de alto desempeño. Juan Carlos Herrera Lozada: Ingeniero en Comunicaciones y Electrónica, egresado de la Escuela Superior de Ingeniería Mecánica y Eléctrica del Instituto Politécnico Nacional, en la Ciudad de México, en el año de 996. En 00 obtuvo el grado de Maestro en Ingeniería de Cómputo con especialidad en Sistemas Digitales y en 0 obtuvo el grado de Doctor en Ciencias de la Computación, ambos en el Centro de Investigación en Computación del Instituto Politécnico Nacional, también en la Ciudad de México. Actualmente está adscrito al Centro de Innovación y Desarrollo Tecnológico en Cómputo del Instituto Politécnico Nacional, en donde ingresó desde 998. Ha sido autor de diversos artículos y ponente en congresos nacionales e internacionales. Jacobo Sandoval : Actualmente es Profesor Visitante en el proyecto de Arquitecturas de Sistemas Embebidos para la Investigación Científica y 6. REFERENCIAS la Integración de Tecnologías para el Centro de Innovación y Desarrollo Tecnológico en Cómputo del Instituto Politécnico Nacional, CIDETEC, tiene Doctorado y Maestría en Tecnología Avanzada por el IPN. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 67

177 APLICACIÓN SOFTWARE DE APOYO PARA DISEÑO DE EVALUACIÓN BAJO COMPETENCIAS Resumen El empleo de las tecnologías de la información en la educación superior constituye una opción para que el docente pueda adquirir los conocimientos y destrezas que les permita utilizar y elaborar materiales educativos, y de esta forma, aprovechar las capacidades tecnológicas de los centros universitarios. Dentro del proceso educacional la evaluación es una etapa que tiene por finalidad comprobar, de modo sistemático en qué medida se han logrado los resultados previstos. La presente una aplicación de software ofrece una alternativa al docente en la evaluación bajo el enfoque en competencias diseñando procedimientos de evaluación (patrones) que permitan definir la estrategia de evaluación de sus asignaturas tomando en cuenta cada uno de los aspectos importantes que evidencien el dominio de la competencia. Esta herramienta es desarrollada utilizando los estándares de Ingeniería de Software, UML y Proceso Unificado, así como software de licenciamiento libre para su programación. Palabras claves Competencia, Evaluación, Ingeniería de Software. MIGUEL ÁNGEL DE LA VARA RAMÍREZ Instituto Tecnológico de la Laguna miguel_vara@hotmail.com ELISA URQUIZO BARRAZA Instituto Tecnológico de la Laguna elisaurquizo@gmail.com ENRIQUE CUAN DURÓN Instituto Tecnológico de la Laguna kcuand@gmail.com DIEGO URIBE AGUNDIS Instituto Tecnológico de la Laguna diegouribeagundis@gmail.com SARA MARÍA VELAZQUEZ REYES Instituto Tecnológico de la Laguna saravelazquezreyes@gmail.com. INTRODUCCIÓN La educación basada en competencias se centra en las necesidades, estilos de aprendizaje y potencialidades individuales para que el alumno llegue a manejar con maestría las destrezas señaladas por la industria y la vida misma. Se definen actividades cognoscitivas dentro de ciertos marcos que respondan a determinados indicadores establecidos y asienta que deben quedar abiertas al futuro y a lo inesperado. De esta manera es posible decir, que una competencia en la educación, es una convergencia de los comportamientos sociales, afectivos y las habilidades cognoscitivas, psicológicas, sensoriales y motoras que permiten llevar a cabo adecuadamente un papel, un desempeño, una actividad o una tarea. Con esta referencia se plantea la necesidad de implementar una aplicación software que proporcione al profesor una herramienta que le permita efectuar una evaluación acorde al modelo basado en competencias, haciendo hincapié que de por sí sola la evaluación en el modelo de enseñanza tradicional es una actividades compleja, bajo el enfoque en competencias se complica considerablemente.. LA EDUCACIÓN BASADA EN COMPETENCIAS Una competencia la podemos ver como la combinación y desarrollo dinámico de conjuntos de conocimientos, capacidades, habilidades, destrezas y atributos de carácter intelectual y procedimental que se constituyen en un desempeño profesional producto de un proceso educativo. Para evidencia el dominio de una competencia se debe definir actividades claras y precisas por parte del docente en las cuales se permite evidenciar por parte del alumno el dominio de las mismas. Es en esta parte donde se centra el principal trabajo del profesor el definir qué actividades son las correctas y cuál será la manera de evaluarlas? La educación basada en competencias se refiere a una experiencia práctica, que necesariamente se enlaza a los conocimientos para lograr un fin. La teoría y la experiencia práctica se vinculan, utilizando la primera para aplicar el conocimiento a la construcción o desempeño de algo. Las competencias parten del marco conceptual que provee la institución con su misión y sello característicos. Para elegir el núcleo de competencias básicas que se requiere construir es necesario analizar y responder en forma realista las siguientes preguntas:. Cuáles son las competencias básicas y necesarias para obtener buenos resultados en la práctica profesional contemporánea? 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 68

178 . Qué indicadores permiten elegir las competencias que se van a construir? 3. Cuáles son los medios más efectivos para construir estas competencias? 4. Cuáles son los medios más efectivos para comprobar que los alumnos han construido estas competencias? Las competencias que son tomadas en cuenta en nuestro proyecto se clasifican en Genéricas, y Especificas. a) Las competencias genéricas definen las capacidades necesarias para el desempeño de cualquier profesión mediante la identificación de los elementos comunes compartidos por todas las carreras del nivel profesional, tales como la capacidad de aprender, de tomar decisiones, de diseñar proyectos, las habilidades interpersonales, etc. b) Las competencias específicas son las capacidades referidas a la especificidad de un campo de estudio o disciplinas requeridas para el desempeño profesional en sus diversos ámbitos de intervención. 3. SELECCIÓN DE LA COMPETENCIAS Y PATRÓN DE DISEÑO En esta fase se contempla el uso de patrones para ubicar pedagógicamente a la competencia pretendida, al nivel educativo y al estilo de aprendizaje del alumno. Un patrón puede relacionarse con un contexto de aprendizaje característico, definido por el académico, y entonces puede ser, por un lado, la parte común con las características de ese contexto de aprendizaje con la información suficiente para aplicarse a diversas situaciones de aprendizaje y, por otro lado, también puede adaptarse a nuevas situaciones modificando su contenido específico (Zapata, M. et al 00). En la propuesta automatizada de la creación de procedimiento de evaluación a través de patrones de diseño se contemplan las siguientes consideraciones (Jones David. et al.999): a) Identificación y especificación de patrones que capturen una secuencia de actividades genéricas para el desarrollo de una competencia. b) Parametrización. c) Especificación del diseño funcional y multimedia de los procedimientos. d) Creación de la base de datos de procedimientos. e) Principios de diseño instruccional representados mediante patrones. Debido a las diferentes dimensiones que adquiere la construcción de un procedimiento de evaluación y a la falta de perfiles pedagógicos e informáticos de los académicos, los patrones de diseño son un gran recurso que le aportará sin lugar a dudas, calidad al recurso creado y le aportará al aprendizaje del alumno. En esta fase, el académico reflexiona acerca de la competencia que pretende desarrollar en sus alumnos y elige el patrón de diseño para la evaluación que más se corresponda a sus intenciones educativas (Urquizo, E. et al. 00). Esta primera fase le dará al procedimiento de evaluación las características de ser real, pertinente, coherente, cohesivo e integral y con las características de calidad del ISO 96 de usabilidad y funcionalidad []. Una vez que el académico tiene definida la competencia y que ha seleccionado el patrón de diseño es momento de generar los procedimientos de evaluación que se integrarán a cada una de las actividades que conformen el contexto de aprendizaje considerando principios de [3]: enfoque para la toma de decisiones; contextos profesional, disciplinar, social e investigativo; desempeño; inclusión de docentes y administrativos; integración de lo cuantitativo y cualitativo; involucramiento de estudiantes en el proceso. El reflexionar en estos principios nos lleva a afirmar que la evaluación de competencias es un proceso complejo y multidimensional que merece ser tratado como un objeto de investigación y que su adecuada incursión en el contexto de aprendizaje le abonará a la calidad pedagógica de dicho contexto. En esta aportación hacemos referencia a su automatización a través de un software que guíe al académico en la selección del patrón de diseño del procedimiento de evaluación y a la correcta integración de dicho proceso al contexto de aprendizaje. El producto final será un procedimiento de evaluación que concuerda con las competencias pretendidas en el contexto de aprendizaje que ha diseñado el académico. De esta forma el procedimiento tendrá la garantía de calidad suficiente para ser implementado y puesto a disposición de los usuarios. 4. MÉTODOS Y HERRAMIENTAS DE DESARROLLO DE LA APLICACIÓN INFORMÁTICA DE PROCEDIMIENTOS DE EVALUACIÓN La metodología que se ha seguido para el desarrollo de esta aplicación informática comprende las siguientes fases: Ingeniería de requisitos y análisis de la aplicación para determinar lo que es importante identificar en los procedimientos de valuación en competencias. Esto apoyado por las técnicas para recabar información proveniente de los académicos del Instituto Tecnológico de la Laguna. Para las fases de análisis y diseño de la aplicación se ha utilizado el Proceso Unificado (UP) y el Lenguaje de Modelado Unificado, UML. En la parte de desarrollo se utilizan herramientas de licenciamiento libre LAMP (Linux, Apache, Myql, Php), dando como valor agregado 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 69

179 el hecho de no requerir inversión alguna desde el punto de vista económico. 5. ANÁLISIS Y DISEÑO DE LA APLICACIÓN SOFTWARE La aplicación software trabaja a partir de patrones (plantillas, guías) previamente establecidos que sirven de ayuda al profesor al momento de implementar sus evaluaciones, permitiéndole ajustar a sus necesidades ya sea añadiendo o eliminando componentes. De manera general el proceso de integración del proceso de evaluación se esquematiza en la figura. En la figura se muestran pantallas de captura de la aplicación de software. Figura. Proceso de evaluación apoyado por un sistema informático de patrones de diseño. a. Sensitivo-Intuitivo b. Visual-Verbal c. Inductivo-Deductivo d. Secuencial-Global e. Activo-Reflexivo d) Criterios de Evaluación.- Es la parte central del procedimiento de evaluación donde se aplica la evaluación definiendo las competencias específicas a ser evaluadas, actividades para evidenciar el dominio de las mismas, los criterios para efectuar la evaluación y las rubricas siendo en este apartado donde se permite una valoración numérica o de apreciación. Figura. Interfaces del sistema de diseño de procedimientos de evaluación. Fuente: Elaboración propia El procedimiento es aplicado a contextos de aprendizajes definidos (asignatura, materia, curso, prácticas de laboratorio, etc.) dividido en 4 etapas principales: a) Datos Generales del procedimiento de evaluación.- Definimos la información que identifican nuestro procedimientos, y el contexto de aprendizaje, al cual se aplicará la evaluación b) Competencias.- Son divididas en competencias previas, genéricas y específicas. a. Previas.- Pueden ser competencias específicas o genéricas que debe de tener dominio el alumno previamente obtenido de cursos anteriores. b. Genéricas. c. Especificas c) Estilos de Aprendizaje.- Los estilos de aprendizaje son implementados a partir del modelo de Folder y Silverman utilizando las dimensiones Fuente: Elaboración propia. 6. COMENTARIOS FINALES El procesos de evaluación de competencias es algo necesario para el flujo normal del aprendizaje de los alumnos, sin ellos el aprendizaje simplemente no sería posible ya que para aprender es necesario tener evidencias de los logros y de los fallos a través de la retroalimentación y más importante aún lo es el desarrollar oportunidades de mejora para la adquisición y dominio de las competencias en cuestión. Lo presentado en esta aportación contribuye a la calidad del proceso de evaluación al presentar al profesor una herramienta que le guíe en la elaboración del procedimiento de evaluación para una competencia determinada. 7. REFERENCIAS [] Hernández, Yosly., Montaño, N., Miguel, Vannesa, y Velásquez, S. Una experiencia en la Construcción de un Modelo de Calidad Pedagógica para Objetos de Aprendizaje. Prieto, M., Sánchez, S, Ochoa, X., y Peach, S. Recursos Digitales para el Aprendizaje (009). 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 70

180 [] Jones, David. Sharonn., Stewart., y Power, L. Patterns: using proven experience to develop online learning. Proceedings o ASCILITE 99 Consultado por internet el 0 de febrero del 0. Dirección de internet: /jonesstewart.pdf. [3] Tobón, S., Pimienta, J., y García, J.A. Secuencias Didácticas: aprendizaje y evaluación de competencias, ª Edición, Editorial Pearson Educación, México, 00. [4] Tobón, S., García Fraile, J. A., Rial, A., y Carretero, M. Competencias, Calidad, y Educación Superior. Bogotá: Cooperativa Editorial Magisterio. [5] Urquizo, E., Quintero, O., Cuan, E. Sistema Automatizado de Patrones de Diseño (00). Prieto, M., Dodero, J.M., y Villegas, D. Recursos Digitales para la Educación y la Cultura pp (00). [6] Zapata, M. Objetos de Aprendizaje generativos, competencias individuales, agrupamientos de competencias y adaptabilidad, Universidad de Murcia. Dirección de internet: Miguel Ángel de la Vara Ramírez: es profesor de industria en el Posgrado en Sistemas Computacionales del Instituto Tecnológico de la Laguna. Egresado del Instituto Tecnológico de la Laguna en ingeniería en sistemas computacionales con especialidad en ingeniería de software. Obtuvo el grado de maestría en Sistemas Computacionales por el Instituto Tecnológico de la Laguna. Elisa Urquizo Barraza: es profesora investigadora en el Posgrado en Sistemas Computacionales del Instituto Tecnológico de la Laguna. Egreso de este instituto de la ingeniería en Electrónica y curso los posgrados: Maestría en Sistemas de Computación Administrativa (Instituto Tecnológico y de Estudios Superiores de Monterrey), maestría en Educación (Universidad Iberoamericana) y Doctorado en Administración Estratégica (Instituto Internacional de Administración Estratégica). Sus principales áreas de investigación son: Tecnología Aplicada a la Educación y a la Generación de Conocimiento Enrique Cuan Durón: es Ingeniero Industrial Electricista egresado del Instituto Tecnológico de la Laguna en. Obtuvo su grado de Maestría en Sistemas 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

181 SECCIÓN IV TECNOLOGÍA QUÍMICA 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 7

182 PRODUCCIÓN Y CARACTERIZACIÓN DE ENSAMBLES HÍBRIDOS ALÚMINA/ACERO AISI 40S POR EL MÉTODO BRAZING Resumen El propósito del presente trabajo de investigación es producir uniones disímiles alúmina/acero AISI 40S por el método de soldadura fuerte denominada "brazing" utilizando una aleación 70Cu-30Zn y una lámina de Nb como medios de unión en atmósfera de argón. Se utilizaron configuraciones tipo sándwich de AlO3/Cu-Zn/Nb/Cu-Zn/AISI 40S variando la temperatura de 950, 980 y 00 C, y diferentes tiempos de unión. Se utilizó microscopía electrónica de barrido en la sección transversal de las muestras unidas a fin de observar el comportamiento de los ensambles metal/cerámico y la formación de la interfase, así como análisis lineales y mapeos atómicos de los componentes. La finalidad de emplear la lámina de niobio como barrera de unión es que sea un factor determinante en el control del crecimiento de la interfase de unión. Los resultados muestran que es posible producir la unión de la alúmina al acero para las variables experimentales estudiadas. La unión se lleva a cabo mediante la inter-difusión de los elementos en la interfase, mostrando una línea de interacción hom*ogénea. Armando Carrillo-López Instituto de Investigación en Metalurgia y Materiales, Universidad Michoacana de San Nicolás de Hidalgo armando.carrillo@yahoo.com.mx José Lemus-Ruiz Instituto de Investigación en Metalurgia y Materiales, Universidad Michoacana de San Nicolás de Hidalgo jlruiz@umich.mx Juan Zárate-Medina Instituto de Investigación en Metalurgia y Materiales, Universidad Michoacana de San Nicolás de Hidalgo jzarate@umich.mx Palabras claves Alúmina, brazing, interfase, unión disímil.. INTRODUCCIÓN El desarrollo de nuevas técnicas para la unión de materiales disímiles ofrece un amplio potencial de aplicaciones; los materiales cerámicos cuentan con propiedades excepcionales como baja densidad y coeficiente de expansión térmica bajo, sin embargo muchas aplicaciones requieren de formas especiales que sólo son costeables por medio de la unión de materiales. Las características de los ensambles híbridos están siendo utilizadas dentro de las más diversas condiciones en la industria automotriz, aeronáutica, medicina, entre otras. Actualmente, los esfuerzos de las investigaciones persiguen conocer las interacciones específicas entre las propiedades físico-químicas del material resultante de la unión y su posterior aplicación en campo. La investigación de la unión de materiales ha llevado al desarrollo de metodologías tan variadas como exactas en diversas áreas de la ciencia, con una amplia gama de aplicaciones muy promisorias, tales como sellado de celdas de combustible, aplicaciones nucleares, herramientas de corte, etcétera, así como también en aplicaciones médicas, donde se utilizan materiales con uniones metal/cerámico para la fabricación de dispositivos de grado quirúrgico, tales como implantes permanentes del sistema esquelético muscular, prótesis de córneas, capacitores en marcapasos e incluso implantes cosméticos maxilofaciales, entre otros []. La tendencia a usar materiales compuestos estriba en la comprensión y el manejo de las características propias de cada componente; en este sentido, el arte radica en la conceptualización y fabricación de un material híbrido avanzado que presente las características óptimas para la aplicación específica. Los cerámicos son materiales ampliamente empleados en aplicaciones estructurales debido a sus excelentes propiedades como peso ligero, propiedades mecánicas excepcionales de dureza, módulo elástico y resistencia, y notable resistencia a la oxidación. Actualmente, las partes cerámicas de tamaños pequeños y formas simples están disponibles de forma comercial, sin embargo, al tratarse de componentes de tamaños mayores o formas complejas, los métodos de unión se perfilan como una opción viable. Los procesos de unión facilitan el uso de los materiales mediante la fabricación de estructuras producidas por el acoplamiento de pequeñas piezas, a través de medios de unión adecuados []. La importancia de la unión de materiales radica en que permite incrementar el potencial práctico y funcional de los diferentes materiales; con el fin de aprovechar las 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 73

183 ventajas de superioridad tecnológica de los cerámicos, es necesario unirlos a partes metálicas, resultando en ensambles híbridos [3]. En la actualidad, existen muchos factores para buscar unir materiales disímiles, sin embargo, los motivos están asociados en su mayoría al diseño, manufactura o factores económicos. Sin tomar en cuenta el método de unión empleado, la producción de una unión exitosa depende principalmente de tres factores: El establecimiento de un contacto íntimo entre las piezas a unir. La conversión de ese contacto superficial en un área unida a nivel atómico. La habilidad de las interfases de unión de acomodar los esfuerzos residuales producidos por la diferencia de los coeficientes de expansión térmica generados durante el enfriamiento después de la fabricación o por los cambios de temperatura en las condiciones de operación [4]. El incremento en el uso de cerámicos estructurales puede verse reflejado en muchas aplicaciones donde se requieren temperaturas de trabajo elevadas []. En general, la sustitución de aleaciones metálicas por materiales cerámicos requiere de un diseño nuevo que nos permita tomar ventaja de las propiedades del cerámico y compensar sus limitaciones de fragilidad y costo. Los cerámicos avanzados poseen características únicas que son deseadas en diferentes áreas de aplicación, como son: a) Retención de propiedades a temperaturas elevadas. b) Bajo coeficiente de fricción. c) Resistencia a la corrosión. d) Densidad baja. e) Aislamiento térmico y eléctrico. f) Bajo coeficiente de expansión térmica. En gran parte de las aplicaciones de los materiales cerámicos, éstos no son empleados solos, sino como componentes que forman parte de un ensamble, por lo cual el material cerámico debe ser unido a materiales convencionales para funcionar en forma adecuada. La unión de cerámicos y aleaciones estructurales metálicas ha recibido bastante atención en los años recientes debido a sus propiedades potenciales y atractivas, así mismo por convertirse en una importante cuestión para aplicaciones diversas. Estos materiales pueden ser unidos por distintos procesos como son la unión por difusión, el uso de intercapas metálicas, el método de líquido en fase transitoria (transient liquid phase, TLP), el método de soldadura fuerte (brazing) y la unión por fricción [-6]. Dentro de la gama de métodos de unión de materiales, el método por soldadura fuerte es considerado como una de las técnicas promisorias para la unión metal/cerámico o cerámico/cerámico, debido a su eficiencia y factibilidad. Existen puntos relevantes a considerar en el presente trabajo, uno de ellos es la diferencia entre los coeficientes de expansión térmica (CET) de los elementos a unir, metal y cerámico. Dicha diferencia genera esfuerzos residuales durante el enfriamiento del proceso de unión. La reducción de los esfuerzos no es una tarea fácil y se realiza a través del control del enfriamiento del proceso, además de utilizar metales dúctiles [7]. La adición de aleaciones metálicas dúctiles es un método para atenuar la diferencia de CET entre los elementos a unir, se pueden utilizar aleaciones comerciales que ayudan a formar una unión fuerte, mitigando la presencia de estrés residual en la zona de unión, que es un problema que afecta directamente la fiabilidad del producto durante el período de servicio o funcionamiento en campo [8]. Las propiedades de la interfase son sensibles a las variables del proceso y por lo tanto, es necesario un estricto control a temperaturas altas a fin de obtener uniones de calidad. Tradicionalmente, la calidad de la unión se juzga a partir del tamaño y continuidad de la misma, así como de los defectos presentes visibles en la zona de la unión, por lo cual se convierte en un proceso de optimización de ensayo y error, por medio de la selección de diferentes condiciones en la experimentación. Por otro lado, la calidad de las uniones metal/cerámico no sólo recae en continuidad de la interfase, existen otros factores como son: la capacidad de una unión química fuerte entre las interfases como consecuencia del comportamiento del mojado entre las superficies a unir; o el nivel de estrés residual en la zona de la unión, originados por la diferencia entre los CET característicos del cerámico y del metal. De forma ideal, las aleaciones metálicas utilizadas como elementos de unión deberían tener una plasticidad alta y un coeficiente de expansión térmica intermedio entre el metal y el cerámico, a fin de prevenir los gradientes de estrés en la zona de unión. Desafortunadamente, no siempre se cuenta con el elemento de unión ideal, por lo cual es necesario lidiar con las grandes diferencias entre los CET de los materiales base. Existen algunas estrategias para reducir el estrés residual que se presenta en la zona de unión entre cerámico y metal, entre las cuales se encuentran [9]: 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 74

184 La aplicación de una o varias capas de metalización de los elementos base. Figura. Configuración del ensamble de unión tipo sándwich. La colocación de varias intercapas metálicas con diferentes coeficientes de expansión térmica que generen un puente gradual entre los elementos base. El uso de capas de unión de materiales compuestos (por ejemplo, refuerzos de partículas cerámicas). Porta muestras de grafito Al O 3 Cu-Zn Nb Cu-Zn AISI 40S El objetivo del presente trabajo se enfoca en la producción y caracterización de la unión disímil alúmina/acero AISI 40S por el método brazing utilizando una intercapa metálica de niobio y una aleación base cobre como elemento de unión.. METODOLOGÍA EXPERIMENTAL Se utilizó polvo comercial de óxido de aluminio de alta pureza (VWR International S. de R.L. de C.V., México) para la producción de pastillas de alúmina de 8 mm de diámetro y 3 mm de espesor fabricadas en dados de acero, prensando uniaxialmente a 5 MPa y su posterior sinterización a temperatura de 550 C durante horas [4]. Se evaluó densidad y porosidad a las pastillas producidas de acuerdo a la norma ASTM C0-00. Las láminas metálicas empleadas son de grado comercial: aleación base cobre (70Cu-30Zn% peso) y hoja de niobio (Alfa Aesar, VWR International S. de R.L. de C.V., México) de 0.05 y 0.7 mm de espesor, respectivamente, se cortaron en secciones cuadradas de 0x0 mm. La aleación de acero AISI 40S, colada (VWR International S. de R.L. de C.V., México) con composición química (Fe:84-86, Cr:.5-3.5, C<0.5, Si:0.74% peso), como componentes principales, y 3 mm de espesor fue también seccionada en trozos de 0x0 mm. Previo al proceso de unión, las muestras fueron desbastadas con lijas de carburo de silicio promoviendo la reproducibilidad en la preparación de la superficie a estar en contacto durante el proceso de unión. Se realizó un muestreo de las superficies desbastadas por medio de microscopía de fuerza atómica en un equipo JEOL JSPM-500 a fin de verificar la rugosidad inicial de las superficies tanto del acero AISI 40S como del cerámico. En un porta muestras de grafito se colocaron los ensambles de unión tipo sándwich integrados por Al O /Cu-Zn/Nb/Cu-Zn/AISI 40S, de acuerdo a la configuración mostrada en la Fig.. Fuente: Elaboración propia El procedimiento para la preparación de las muestras inició con el desbaste de las superficies de contacto de las pastillas de alúmina, de la lámina de niobio y del acero, con hojas de papel de carburo de silicio de tamaños 400, 600 y 00; y se finalizó con un desbaste grueso controlado con papel de carburo de tamaño 80 que permita reproducir de manera uniforme las superficies a unir, en la mayor forma posible [0]. La lámina de aleación base cobre se desbastó con papel de carburo de silicio de tamaño 00 para retirar posibles impurezas superficiales. Previo al proceso de unión, todos los componentes fueron limpiados en alcohol etílico en una tina de ultrasonido con el propósito de eliminar elementos superficiales contaminantes. Los ensambles tipo sándwich montados en el porta muestras de grafito fueron introducidos en un horno horizontal Carbolite STF 6/8 donde se llevo a cabo el proceso de unión en una atmósfera controlada de gas argón. Se utilizó polvo de nitruro de boro (BN) en el porta muestras con el propósito de reducir la contaminación con el ensamble metal/cerámico. Se realizó la unión por el método brazing usando las siguientes variables: Temperatura de unión: 950, 980 y 00 C. Tiempo de unión: 5, 5, 5 y 35 minutos. Atmósfera de gas argón. Los distintos ciclos de calentamiento del proceso de unión siguen el patrón mostrado en la Fig.. Con el fin de analizar la interfase en los ensambles unidos, éstos se cortaron de forma transversal a la unión por medio de una cortadora BUEHLER IsoMet de baja velocidad, usando un disco de diamante. Después del corte, las uniones pasaron a un proceso de desbaste con papel de carburo de silicio de tamaños 400, 600 y 00. Posteriormente, se realizó el pulido de la sección transversal de la unión con el uso de un paño y una dispersión de polvos de alúmina de, 0.3 y 0.05 µm. Finalmente, se realizó la limpieza de los ensambles metal/cerámico con alcohol etílico en una tina de ultrasonido. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 75

185 Figura. Ciclo de calentamiento del proceso de unión metal/cerámico. Por otro lado, la Fig. 4 muestra una imagen por MEB de la microestructura de una pastilla de alúmina sinterizada y fracturada; es notoria una distribución hom*ogénea en el sinterizado de las partículas, con formas variadas. Figura 4. Microestructura fracturada de una pastilla de alúmina sinterizada a 550 C por horas. Fuente: Elaboración propia La microestructura de la unión fue evaluada por medio de microscopía electrónica de barrido en un equipo JEOL JSM-6400, analizando la zona de la unión con el uso de las técnicas de análisis morfológico de la microestructura y análisis químico. Se realizaron, por tanto, análisis lineales y mapeos atómicos de componentes con el propósito de obtener datos tanto cualitativos como cuantitativos. 3. RESULTADOS Y DISCUSIÓN 3. PRODUCCIÓN DE PASTILLAS DE Al O 3 Los componentes de la unión disímil fueron caracterizados por medio de difracción de rayos X y microscopía electrónica de barrido antes de proceder al proceso de unión, con el propósito de corroborar la pureza de los materiales de inicio. Por medio de un equipo Siemens D5000 se obtuvo el difractograma de una pastilla de alúmina sinterizada mostrado en la Fig. 3 donde se pueden observar los puntos característicos de la α-alúmina que constituye la fase más estable de este cerámico y coincide con los difractogramas de los polvos iníciales, mostrando que no existió transformación de fase durante la sinterización. Figura 3. Difractrograma de rayos X de una pastilla de alúmina sinterizada a 550 C por horas. Intensidad (cps) Ángulo () Fuente: Elaboración propia α-al O 3 Fuente: Elaboración propia La densidad de las pastillas producidas evaluadas por el método de Arquímedes arrojaron resultados de compactos de densificación mayores al 90% con valores de porosidad promedio de 3.4%; la densidad teórica reportada de la alúmina es de 3.96 gr/cm³ []. 4. RESULTADOS DE UNIÓN La tabla muestra los resultados de las uniones metal/cerámico de acuerdo a las variables de proceso: temperatura y tiempo. Las variaciones de cada proceso quedan de manifiesto en los resultados de las uniones presentados en la tabla. El término unido se refiere a los ensambles donde se logra la unión de los materiales con resistencia interfacial suficiente para analizar las muestras, pasando por el proceso mecánico de corte y preparación transversal. Las muestras denominadas no unido indican que los ensambles de unión no presentaron una resistencia interfacial suficiente, ya que estas muestras se separaron al extraerlas de la porta muestras una vez terminado el proceso, sin embargo presentan una interacción en las superficies de unión. Se utilizó MEB para verificar el comportamiento de las interfases de cada uno de los ensambles producidos a las diferentes condiciones de proceso. Es preciso mencionar que todos los experimentos se realizaron bajo las mismas características de preparación 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 76

186 metalográfica y condiciones de proceso, además, fueron desarrollados en su totalidad en una atmósfera controlada de gas argón; todo este cuidado en el desarrollo, producción de las muestras y su estudio se llevó a cabo buscando la reproducibilidad y uniformidad en la experimentación. Temperatura de unión ( C) Tabla. Resultados de la unión metal/acero. Tiempo de unión (minutos) Ensamble Unido Ensamble No Unido 5, 5 X 5, 35 5 X 5, 5, 35 5, 5 5, 35 X Fuente: Elaboración propia ( ) (X) Una vez que se analizaron los resultados experimentales, se pudo observar que las uniones presentaron un comportamiento muy específico respecto a las variables de proceso de temperatura y tiempo de unión, que se puede describir de la siguiente manera: de la tabla se observa que al utilizar temperatura de unión de 950 C, las uniones resultan exitosas en períodos de tiempo mayores a 5 minutos; así, cuando se realizan las uniones a temperatura de 980 C, los resultados se perfilan a ser mejores en casi la totalidad de los tiempos, a excepción del período de 5 minutos, a pesar de que se observan algunos puntos no unidos o islas. Finalmente, cuando el proceso de unión se realiza a temperatura de 00 C, se notan los mejores resultados en los períodos de tiempo cortos de 5 y 5 minutos. Es notorio que este comportamiento es asociado al efecto del cambio de temperatura ya que al incrementarse, se aceleran los procesos de difusión que intervienen en el proceso al ser mecanismos activados térmicamente promoviendo la interacción entre el elemento de unión, Cu-Zn, la intercapa de unión, Nb, y los materiales de Al O 3 y acero AISI 40S del ensamble a unir [4, 0, - 3]. espacio a otro se conoce como energía de activación (Q) y es proporcionada por medio de calor; la difusión se lleva a cabo con mayor facilidad cuanto menor sea la energía de activación y mayor sea la temperatura. Así, al aumentar la temperatura, el coeficiente de difusión y la densidad de flujo de átomos también aumentan, presentándose cambios en los valores de los coeficientes de difusión de los elementos, por ejemplo, el coeficiente de difusión para el Al en Cu es de.5x0-0 cm /s a 00 C, mientras que a 500 C es de 3.x0-3 cm /s [4]. La Fig. 5 muestra la sección transversal y análisis en línea de la interfase AISI 40S/Nb tomada por medio de MEB de una unión producida a 950 C y tiempo de unión de 5 minutos. En la Fig. 5a se puede notar una interfase hom*ogénea y definida con interacción entre los elementos de unión. Los resultados del análisis químico realizado a través de la lineal, de la Fig. 5b, pasan por las regiones de la interfase mostrando el contenido de los componentes de la zona en cuestión. Siguiendo la línea de análisis que comienza por el perfil del lado del AISI 40S, se nota la presencia de los elementos principales del acero, Fe y Cr, posteriormente se pasa al elemento de unión constituido por Cu-Zn que pasó a estado líquido durante el proceso de unión; finalmente se observa el incremento del perfil del niobio, que desempeñó la función de intercapa de unión, llegando a un máximo al extremo final del análisis. El comportamiento de los perfiles dentro del análisis lineal muestra también la interdifusión de los elementos durante el proceso de unión. Figura 5. a) Sección transversal y b) análisis lineal de la interfase metal/nb producida a 950 C y 5 minutos. AISI 40S Interfase Nb El término difusión está asociado con el movimiento de los átomos en un material; los átomos tienden a eliminar las diferencias de concentración y producir una composición hom*ogénea dentro del mismo. El fenómeno de difusión se presenta tanto en elementos puros como en aleaciones metálicas y cerámicas, donde ocurre la difusión de átomos distintos principalmente por mecanismos intersticiales y las vacantes. La energía mínima necesaria para que un átomo se desplace de un Fuente: Elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 77

187 Figura 6. Distribución atómica de una unión Al O 3 /Nb/AISI 40S producida a 00 C y 5 minutos AISI 40 S Nb Al O 3 caracterizándose por una baja difusión o interacción con el cerámico. Con la finalidad de verificar la interacción de los elementos presentes en zonas específicas de la unión, se realizaron análisis puntuales en diferentes regiones donde se requirió un mayor detenimiento. La Fig. 7 muestra los sitios donde se realizaron los análisis, de la unión producida a 00 C y tiempo de 5 minutos. Figura 7. Análisis puntuales de una unión producida a 00 C y 5 minutos Fuente: Elaboración propia Fuente: Elaboración propia Por otro lado, con el propósito de clarificar la distribución de los componentes en el proceso de unión metal/cerámico se realizó un estudio de distribución atómica cualitativo de los elementos principales de los componentes de unión: Fe, Al, O, Cu, Cr y Nb. La Fig. 6 muestra los resultados para el mapeo atómico de una unión producida a 00 C y tiempo de 5 minutos; donde el acero AISI 40S se encuentra en la parte superior y la alúmina en la parte inferior. Se pueden apreciar de forma cualitativa las regiones donde se encuentran distribuidos los elementos después de la interacción, así como la difusión presente debido a la temperatura del proceso de unión. Así, se puede observar que la interfase entre el acero AISI 40S y el niobio contiene esencialmente Cu como elemento principal, notándose la difusión de Cr y Fe en esta región; sin embargo, en la interfase formada entre la alúmina y el niobio se observa la presencia de Cu y Nb, Una vez efectuados los análisis puntuales por medio de microscopía electrónica de barrido, se concentró la información en la tabla que muestra en forma cuantitativa la inter-difusión de los elementos durante el proceso de unión. Tabla. Resultados de análisis puntuales, mostrados en la Fig. 7, de una unión producida a 00 C y 5 minutos. Elemento (% peso) Punto Fe Cr C Si Nb Cu O Al Fuente: Elaboración propia De la tabla se observa que es notoria la forma en que los elementos constitutivos principales del acero AISI 40S, Fe y Cr, tienen altos contenidos en los puntos uno y dos; así mismo, la cantidad de niobio presente en el punto tres es menor que la del punto cuatro, donde tiene un contenido máximo; finalmente, los elementos constituyentes del cerámico, Al y O, aparecen con mayor presencia en el punto cuatro. Hubo suficiente temperatura y tiempo para la difusión de los elementos. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 78

188 4. CONCLUSIONES Las principales conclusiones derivadas del presente trabajo muestran que: es posible la unión alúmina/acero AISI 40S por el método brazing bajo las condiciones de temperatura y tiempo de unión estudiadas. El comportamiento de las interfases formadas después del proceso de unión obedece a los mecanismos de difusión. Los resultados confirmaron que con tiempos de uniones mayores se lograron mayores interacciones entre los elementos en una dependencia mutua con la temperatura. Los espesores de las interfases presentaron un incremento al aumentar tanto temperatura como tiempo de unión, observando valores promedio de 0, 9 y 4 µm para temperatura de 950, 980 y 00 C, respectivamente. Las diferencias entre los coeficientes de expansión térmica del cerámico y el metal fueron mitigadas con el uso de los materiales dúctiles del elemento de unión, así como del niobio. 5. AGRADECIMIENTOS Los autores agradecen el apoyo recibido por parte del Consejo Nacional de Ciencia y Tecnología (CONACYT - Proyecto: 6786) y a la Coordinación de la Investigación Científica de la Universidad Michoacana de San Nicolás de Hidalgo. 6. REFERENCIAS [] Y.M. He, J. Zhang, Y. Sun, C.F. Liu, Characterization of the Si3N4/4CrMo joints vacuum brazed with Pd modified filler alloy for high temperature application. Journal of the European Ceramic Society. Vol 30. pp [] N. Hosseinabadi, R. Sarraf-Mamoory, A. Mohammad Hadian, Diffusion bonding of alumina using interlayer of mixed hydride nano powders. Ceramics International. Vol. 40. pp [3] L. Lan, Z. Ren, J. Yu, Z. Yang, Y. Zhong, Microstructure and mechanical properties of partial transient liquid phase bonded Si3N4 DZ483 superalloy joints. Materials Letters. Vol.. pp [4] J. Alonso-Santos, M. Téllez-Arias, E. Bedolla- Becerril, J. Lemus-Ruiz, Microstructural behavior during bonding of alumina to niobium by liquid state diffusion. Materials Science Forum. Vol [5] M.I. Barrena, L. Matesanz, J.M. Gómez de Salazar, AlO3/Ti6Al4V diffusion bonding joints using Ag Cu interlayer. Materials Characterization. Vol. 60(). pp [6] X.G. Song, J. Cao, Y.F. Wang, J.C. Feng, Effect of Si3N4-particles addition in Ag Cu Ti filler alloy on Si3N4/TiAl brazed joint. Materials Science and Engineering. Vol. 58. pp [7] Y. He, Y. Sun, J. Zhang, X. Li, An analysis of deformation mechanism in the Si3N4 AgCuTi Si3N4 joints by digital image correlation. Journal of the European Ceramic Society. Vol. 33. pp [8] Y. He, J. Zhang, X. Li, Characterization of the Si3N4/Si3N4 joints fabricated using particles modified braze. Materials Science and Engineering. Vol. 66. pp [9] J. Janczak-Rusch, G. Kaptay, L.P.H. Jeurgens, Interfacial design for joining technologies: An historical perspective. Journal of Materials Engineering and Performance. Vol. 3. pp [0] L. Ceja-Cárdenas, J. Lemus-Ruiz, S. Díaz-de la Torre, R. Escalona-González, Interfacial behavior in the brazing of silicon nitride joint using a Nb-foil interlayer. Journal of Materials Processing Technology. Vol. 3. pp [] M.M. Schwartz, Ceramic Joining, ra Edición. ASM International. USA A.O. Guevara-Laureano, Producción y caracterización de uniones AlO3/Ti empleando metalizados de Nb y Mo, [] Tesis de Maestría, Instituto de Investigaciones Metalúrgicas, UMSNH, Morelia, Mich. México. 0. [3] J. Lemus, R.A.L. Drew, Joining of silicon nitride with a titanium foil interlayer. Materials Science and Engineering. Vol. 35. pp [4] D.R. Askeland, "La Ciencia e Ingeniería de los Materiales", 3ra Edición, Thomson International. Armando Carrillo-López: Ingeniero Mecánico por el Instituto Tecnológico de Morelia, Michoacán. Estudiante de la Maestría en Metalurgia y Ciencias de los Materiales en el Instituto de Investigación en Metalurgia y Materiales de la Universidad Michoacana de San Nicolás de Hidalgo. José Lemus-Ruiz: Licenciado en Ciencias Físico- Matemáticas, con estudios de Maestría en Ciencias en Metalurgia y Ciencias de los Materiales, ambos por la Universidad Michoacana de San Nicolás de Hidalgo. Doctorado por la Universidad de McGill en Montreal, Canadá. Miembro del Sistema Nacional de Investigadores Nivel desde 00. Profesor e Investigador en el Instituto de Investigación en Metalurgia y Materiales con más de 4 años de experiencia. Juan Zárate-Medina: Ingeniero Químico, con estudios de Maestría en Ciencias en Metalurgia y Ciencias de los Materiales, ambos por la Universidad Michoacana de San Nicolás de Hidalgo. Doctorado por la Universidad Nacional Autónoma de México. Miembro del Sistema Nacional de Investigadores Nivel desde 005. Profesor e Investigador en el Instituto de Investigación en Metalurgia y Materiales con más de años de experiencia. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 79

189 SÍNTESIS Y CARACTERIZACIÓN DE COMPUESTOS DE MATRIZ METÁLICA Mg- AZ9/AlN PRODUCIDOS POR INFILTRACIÓN ESPONTÁNEA Resumen El objetivo del trabajo se enfoca en la síntesis y caracterización de un material compuesto de matriz de magnesio AZ9E con alto contenido de refuerzo (~50% vol.) de nitruro de aluminio (AlN). La fabricación se realizó por el método de infiltración sin usar presión externa, partiendo de preformas de AlN en verde, es decir sin pre-sinterizar. Las preformas fueron producidas empleando polvo de AlN de tres distribuciones de tamaño de partícula denominados: A: fina, B:media y C:gruesa, e infiltradas con la aleación de Mg- AZ9E líquida a 850ºC durante minutos en argón. Técnicas de microscopía electrónica de barrido (MEB), así como difracción de rayos X (DR-X) fueron empleadas para caracterizar los compuestos AZ9E/AlN producidos. Los resultados obtenidos por MEB muestran una distribución hom*ogénea de los refuerzos libres de productos de reacción, entre la matriz y el refuerzo, para los tres casos analizados. Resultados de la caracterización mecánica indican valores promedio del módulo de elasticidad alrededor de 3 GPa. El coeficiente de expansión térmica lineal oscila en 9.6x0-6 C- y 8.96x0-6 C- en el rango de temperatura entre 5 y 300 C. La conductividad térmica se incrementa de 47 W/mK para el compuesto fabricado con partículas C: gruesas, a 53 W/mK para la partículas de tamaño B:medio y a 8 W/mK con tamaño de partícula A:fin, medidos a temperatura de ambiente, 5 C. ALEJANDRO AYALA-CORTES Facultad de Ingeniería Química Universidad Michoacana de San Nicolás de Hidalgo alexayaco@hotmail.com JOSÉ LEMUS-RUIZ Instituto de Investigación en Metalurgia y Materiales, Universidad Michoacana de San Nicolás de Hidalgo jlruiz@umich.mx EGBERTO BEDOLLA-BECERRIL Instituto de Investigación en Metalurgia y Materiales, Universidad Michoacana de San Nicolás de Hidalgo ebedolla@umich.mx Palabras claves Compuestos, infiltración, AlN, aleación AZ9E.. INTRODUCCIÓN Los materiales compuestos se obtienen al unir en forma macroscópica dos materiales para conseguir una combinación de propiedades que no es posible obtener en los materiales originales. Están formados por una fase continua llamada matriz, puede ser metálica, cerámica u orgánica, así como una fase de refuerzo dispersa en la matriz y puede ser en forma de fibra o partículas []. Generalmente los componentes son distintos en propiedades, siendo uno ligero, rígido y frágil y el otro suele ser tenaz y dúctil. Los combinaciones en materiales compuestos pueden ser metal/metal, metal/cerámico, metal/polímero, cerámico/polímero, cerámico/cerámico o polímero/polímero. La unión de estos materiales disímiles dará lugar a materiales con propiedades poco usuales como: rigidez, resistencia, densidad, rendimiento a elevada temperatura, resistencia a la corrosión, dureza, o conductividad eléctrica y térmica. En el caso de los compuestos de matriz metálica, los tipos de refuerzo se pueden clasificar en tres categorías: fibras, whiskers o partículas. El uso de partículas como refuerzo tiene una mayor acogida en los materiales compuestos de matriz metálica (CMM), ya que asocian menores costos y permiten obtener una mayor isotropía de propiedades en el producto. Sin embargo, para tener éxito en el desarrollo de CMM se debe tener un control estricto del tamaño y la pureza de las partículas utilizadas. Los refuerzos típicos de mayor uso en forma de partículas son: carburos (TiC, B 4 C), óxidos (SiO, TiO, ZrO, MgO) y nitruros (AlN, Si 3 N 4 ). Sin embargo, en los últimos años se han empezado a utilizar partículas de intermetálicos, principalmente de los sistemas Ni-Al y Fe-Al [, 3]. Se ha reportado en la literatura la elaboración de CMM usando como refuerzo AlN utilizando diferentes rutas de procesamiento [4-8]. Sin embargo, en estos estudios se ha empleado muy poco el magnesio y sus aleaciones, no obstante que el uso de éstas se ha venido incrementando en los últimos años en la industria automotriz debido a su peso ligero. La densidad del Mg es alrededor de (/3) de la del Al, (/4) de la del Zn y (/5) de la del acero. Como resultado las aleaciones de magnesio ofrecen una resistencia específica alta comparada con las aleaciones convencionales de aluminio, además éstas aleaciones tienen buena capacidad de amortiguamiento, excelente colada y muy buena maquinabilidad [9]. Por otro lado, el AlN poli-cristalino tiene una conductividad térmica de 80 a 00 Kw/m.K, un coeficiente de expansión térmica de 4.4x0-6 C - (valor muy cercano al del carburo de silicio 3.x0-6 C - ). Estas dos propiedades hacen al AlN un excelente material para circuitos eléctricos de alta densidad comparado con otros sustratos cerámicos que por lo general tienen coeficientes de conductividad térmica bajos y coeficientes de expansión térmica altos. Como resultado, la combinación de las propiedades mecánicas del AlN con las del Mg y sus aleaciones dan 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 80

190 origen a un compuesto muy atractivo para aplicaciones electrónicas y estructurales. Las propiedades de los compuestos están determinadas por factores, tales como las propiedades individuales de los materiales que constituyen la matriz y el refuerzo, así como de su interacción interfacial, además de la morfología, orientación y distribución de la fase reforzarte y de la técnica de fabricación [0]. La reacción interfacial entre la matriz y el refuerzo requiere de un estudio riguroso, ya que puede cambiar la composición de la matriz y el refuerzo, no obstante alguna de estas reacciones interfaciales contribuyen al aumento de las propiedades mecánicas, otras lo harán en detrimento [], por lo tanto su análisis resulta ser de gran importancia. Una interfase adherida fuertemente es un requisito para una buena resistencia en un compuesto. La naturaleza y calidad de la interfase (morfología, composición química, resistencia y adhesión) son determinadas por factores intrínsecos, tanto del material de refuerzo como de la matriz (composición química, cristalografía y contenido de defectos), así como también factores extrínsecos (tiempo, temperatura, presión y atmósfera) relacionados con la fabricación del material. En los CMM una cantidad moderada de interacciones químicas entre el refuerzo y la matriz mejoran la mojabilidad y la resistencia de la interfase. Tales interacciones frecuentemente resultan en la formación de fases intermedias que no están en equilibrio, debido a que las interfaces son termodinámicamente inestables y las transformaciones morfológicas y estructurales continúan durante todo el proceso de fabricación. Sin embargo, una reacción química excesiva degrada el refuerzo y la resistencia del compuesto [, 3]. Disminuir el tiempo de procesamiento o utilizar elementos de aleación puede ser una práctica que reduzca la extensión de la reacción interfacial. La zona de la interfase es una región de composición química variable, donde tiene lugar la unión entre la matriz y el refuerzo, que asegura la transferencia de las cargas aplicadas entre ambos y condiciona las propiedades mecánicas finales de los compuestos. Durante la producción de CMM usando una ruta de procesamiento en estado líquido, la matriz líquida está en contacto con los refuerzos sólidos, esto incrementa la interacción interfacial, aunado al contacto prolongado entre ambos componentes del compuesto. Las zonas de reacción usualmente son frágiles y podrían estar fuerte o débilmente unidas al refuerzo. Los materiales metálicos de uso más común en CMM son las aleaciones ligeras de Al, Ti y Mg. La naturaleza de la técnica en la fabricación de materiales compuestos tiene un efecto marcado sobre las propiedades del material. En el caso de procesamiento en estado líquido para fabricación de materiales compuestos, la mayor dificultad que se presenta es la no mojabilidad de la fase cerámica por los metales líquidos. Por lo tanto, es de gran importancia obtener una buena mojabilidad para lograr una unión fuerte entre la matriz y el refuerzo [0]. La infiltración por capilaridad sin presión externa de preformas cerámicas es una técnica atractiva para la fabricación de materiales compuestos, debido a que permite manufacturar materiales con alto contenido de cerámico. Sin embargo, las temperaturas altas que se requieren para fabricar el compuesto por esta técnica, pueden generar una cantidad considerable de productos de reacción en la interfase. El objetivo de este trabajo fue elaborar un material compuesto usando como matriz la aleación de magnesio AZ9E y como refuerzo cerámico partículas de AlN de tres distribuciones de tamaño distintas, utilizando la técnica de infiltración por capilaridad.. METODOLOGÍA EXPERIMENTAL En la Tabla se presenta la composición química de la aleación de Mg-AZ9E (Thomson Aluminum Casting Co. USA) usada en la fabricación del material compuesto. Tabla. Composición química de la aleación Mg-AZ9E (% peso). Mg Al Zn Mn Si Fe Cu Ni max max 0.05 max 0.00 max Fuente: Elaboración propia El material de refuerzo utilizado fue polvo de AlN (Aldrich Chemical Co. USA) de tres distribuciones de tamaño de partícula denominados: A:fina, B:media y C:gruesa. La distribución de tamaños de los polvos de AlN son mostrados en la Fig.. Figura. Distribución de tamaño de partícula de los polvos de AlN. Volumen (%) 5 3 Polvo A:fina Polvo B:media Diámetro de partícula, (m) Fuente: Elaboración propia Polvo C:gruesa La fabricación del compuesto se realizó mediante la técnica de infiltración sin presión externa, para lo cual se 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8

191 fabricaron preformados con dimensiones de 6.5xx cm y pastillas de. cm de diámetro y 0.5 cm de espesor, en dados de acero, prensando uniaxialmente a 5 MPa. Las preformas en verde se colocaron en contacto con trozos pequeños de la aleación Mg-AZ9E dentro de un crisol de grafito en un horno tubular horizontal a una temperatura de 850 C durante minutos en atmósfera de argón. Una vez que la aleación se funde, esta se infiltra en el preformado obteniendo así el material compuesto. A los compuestos producidos se les evaluó la densidad y porosidad de acuerdo a la norma ASTM C0-00. Se examinó la sección transversal de los compuestos, previa preparación de pulido, usando un microscopio electrónico de barrido JEOL JMS Las pruebas para determinar el coeficiente de expansión térmica se realizaron en un dilatómetro vertical Linseis L75 en atmósfera de nitrógeno en el rango de temperatura entre 7 y 300 C. La conductividad térmica se midió en un equipo Linseis LFA 000 en el rango de 5 a 300 C. La caracterización mecánica consistió en la evaluación del módulo de elasticidad por medio de un equipo Grindo Sonic MK5 JV Lemmens, para lo cual se prepararon 3 barras del compuesto Mg-AZ9E/AlN para cada distribución de tamaño de partícula, A:fina, B:media y C:gruesa, a las cuales se les realizó la medición en cada una de las 4 caras para obtener un valor promedio. 3Mg (l) + 4Al O 3(s) = 3MgAl O 4(s) + Al () G (850 C) = - 56 kj La formación de la espinela MgAl O 4 puede darse aún en estado sólido por la reacción de la Ec. (3): MgO (s) + Al O 3(s) = MgAl O 4(s) (3) G (850 C) = - 44 kj Por otro lado, termodinámicamente el MgO es más estable que la Al O 3, por tanto, el Mg puede reducir la Al O 3 de acuerdo a la reacción de la Ec. (4): 3Mg (l) + Al O 3(s) = 3MgO (s) + Al (4) G (850 C) = - 3 kj Figura. Compuestos infiltrados a 850 C por minutos para polvos de AlN con distribuciones de tamaño de partícula: a) fina, b) media y c) gruesa. a) AlN 3. RESULTADOS Y DISCUSIÓN 3. Caracterización estructural La Fig. muestra secciones transversales para los materiales compuestos Mg-AZ9E/AlN para los tres compuestos producidos por la infiltración de Mg-AZ9E a 850 C por minutos en preformas porosas con distribución de tamaño de partícula a) fina, b) media y c) gruesa. En la Fig. se observa una distribución hom*ogénea en los tres casos de compuestos producidos, con aproximadamente 5% de la aleación AZ9E y un 49% de AlN. Las densidades de los compuestos producidos evaluadas por el método de Arquímedes fueron de:.56,.58 y.55 g/cm 3 para el compuesto A:fina, B:media y C:gruesa, respectivamente. Las observaciones en las muestras de los compuestos realizadas en MEB a magnificaciones altas muestran que aparentemente no existen productos de reacción en la interfase. Sin embargo, para corroborar la ausencia de reacción entre la matriz y el refuerzo es necesario realizar un estudio de las muestras por microscopía electrónica de transmisión. Acorde a la termodinámica es factible la formación de varios productos de reacción durante la fabricación del compuesto Mg-AZ9E/AlN a 850 C. La formación de MgO y de la espinela MgAl O 4 puede darse por las reacciones de la Ec. () y Ec. (): b) c) AZ9E AlN AZ9E AlN AZ9E Fuente: Elaboración propia Mg (l) + /O (g) = MgO (s) () G (850 C) = kj Como puede observarse termodinámicamente la Ec. () y Ec. (3), que dan origen a la formación de espinelas, son factibles, sin embargo, el grado de reacción para que se 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 8

192 lleve a cabo una u otra dependerá de la temperatura, tiempo y la composición química de la aleación. La Al O 3 es termodinámicamente estable en contacto con Al puro, sin embargo, tratándose de una aleación de Mg tiende a formarse MgO y en un sistema donde se tenga suficiente oxígeno, la espinela puede formarse de acuerdo a la reacción de la Ec.(5): Figura 4. Distribución atómica en compuestos con distribuciones de tamaño de partícula de AlN: a) fina, b) media y c) gruesa, infiltrados a 850 C por minuto a) Mg (l) + Al (l) + O (g) = MgAl O 4(s) (5) G (850 C) = kj De acuerdo a investigaciones realizadas por: Lloyd [4], McLeod et al. [5] y Lloyd et al. [6], contenidos de Mg altos y temperaturas bajas favorecen la formación del MgO, mientras que la formación de la espinela es más factible a contenidos de Mg bajos. El perfil cuantitativo de componentes a través de la línea dentro del compuesto producido con distribución tamaño de partícula de AlN denominada B: media, se presenta en la Fig. 3. La línea donde se realiza el análisis pasa por distintas regiones de la matriz Mg-AZ9E y de partículas de refuerzo de AlN. Podemos observar en la Fig. 3 como el contenido de los componentes cambia de acuerdo a la región en la que nos encontramos, así el perfil del Al y N se incrementa al máximo nivel cuando estamos dentro de una partícula de AlN y disminuye cuando estamos en la matriz. Perfil opuesto al observado en el Mg, el cual alcanza su máximo valor cuando estamos pasando por las regiones de la matriz. Así mismo, con el propósito de clarificar la distribución de los componentes de la matriz de Mg-AZ9E y del refuerzo de AlN dentro del material compuesto, la Fig. 4 presenta los resultados para la distribución atómica de los componentes Mg, Al y N. Empleando está técnica de distribución atómica o mapeo, es factible apreciar en forma cualitativa las regiones donde se encuentran los componentes del compuesto, clarificando la buena distribución en forma dispersa de las partículas de AlN dentro de la matriz continua de Mg. b) c) Figura 3. Análisis en línea para el compuesto con distribución de tamaño de partícula de AlN: B:media infiltrado a 850 C por minutos Al N Mg Fuente: Elaboración propia Fuente: Elaboración propia 3. Caracterización mecánica En la etapa de preparación de las muestras para analizarlas por microscopia electrónica de barrido no se detectó desprendimiento de partículas en ninguno de los tres tipos de compuestos producidos, por lo que se puede decir que existe una buena adhesión entre el cerámico y la matriz. Para evaluar el grado de adhesión entre refuerzo y matriz se utiliza el trabajo de adhesión, el cual es una medida que refleja el grado de unión entre la superficie sólida y líquida. Una interfase adherida fuertemente es un requisito para tener un buen comportamiento mecánico y estructural en un compuesto. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 83

193 La naturaleza y calidad de la interfase (morfología, composición química, resistencia y adhesión) son determinadas por factores intrínsecos tanto del material de refuerzo como de la matriz (composición química, cristalografía y contenido de defectos) así como también por factores intrínsecos relacionados con el proceso de fabricación (tiempo, temperatura, presión, atmósfera, entre otros). En los materiales compuestos, reacciones moderadas entre el refuerzo y la matriz, en ocasiones mejoran la resistencia de la interfase y la transferencia de carga. Estas pueden manifestarse en una gran variedad de formas, por ejemplo, interdifusión, segregación, disolución, precipitación, adsorción, etc. Sin embargo, una reacción química excesiva degrada el refuerzo y la resistencia del compuesto [, 3]. Para controlar la extensión de la reacción interfacial, es práctico reducir el tiempo de procesamiento de los compuestos, aplicar recubrimientos metálicos y adicionar elementos de aleación en la matriz. A los compuestos Mg-AZ9E/AlN fabricados con diferente distribución de tamaño de partícula: A:fina, B:media y C:gruesa, se les evaluaron algunas propiedades mecánicas como es el módulo de elasticidad, ya que está directamente relacionadas con el volumen de refuerzo en la matriz metálica. Los resultados del módulo de elasticidad evaluado en el material por medio del equipo Grindo Sonic se muestran en la Fig. 5. Como se puede observar en la Fig. 5 el valor del módulo elástico no presenta un cambio marcado entre los tres distintos materiales compuestos (08 a GPa), sin embargo es marcadamente superior al valor de la matriz monolítica de Mg-AZ9E (44 GPa), atribuido al refuerzo de AlN de los materiales compuestos. Figura 5. Módulo de Young para los compuestos con distribución de tamaño de partícula de AlN: A:fina, B:media y C:grusa infiltrados a 850 C por minutos. Módulo de Young (GPa) Mg-AZ9E 6 Mg-AZ9E/AlN A:fina Fuente: Elaboración propia 08 Mg-AZ9E/AlN Mg-AZ9E/AlN A:media A:gruesa El valor del módulo de elasticidad obtenido en los compuestos Mg-AZ9E/AlN fabricados en este trabajo son ligeramente menores a los encontrados en el estudio reportado por Lai y Chung [7] quienes fabricaron un compuesto de Al/AlN con 58% de refuerzo, obteniendo un módulo de elasticidad de 44 GPa, sin embargo, el porcentaje de refuerzo que ellos usaron fue mayor al que aquí se reporta y el módulo de elasticidad del aluminio es mayor que el de la aleación AZ9E. Por otro lado, los materiales compuestos pueden ser empleados como materiales estructurales o funcionales, dependiendo de las propiedades que presentan. De este modo, el compuesto AZ9E/AlN podría ser utilizado como material de empaquetamiento electrónico, aplicación que requiere materiales con coeficientes de expansión térmica (CET) baja y conductividad térmica alta, debido a la baja deformación dimensional y elevada disipación del calor generado durante su aplicación. Los compuestos Mg-AZ9E/AlN fabricados, presentan un CET bajo que varía de 9.6x0-6 C - para el compuesto A:fina, 9.x0-6 C - para el compuesto B:media y de 8.963x0-6 C - para el C:gruesa, en el rango de temperatura entre 5 a 300 C. Zhang y col. [8] reportan valores de. x0-6 C - para un compuesto de Al/AlN con 50% de refuerzo, así mismo, Lai y Chung [7] reportan un valor de 0.6 x0-6 C - para un compuesto de Al/AlN con 54.6% de refuerzo. Los resultados para la conductividad térmica media para los tres compuestos fabricados, medida a 5 C se presentan en la Fig. 6. La conductividad térmica se incrementa de 47 W/mK para el compuesto fabricado con partículas C:gruesas, a 53 W/mK para la partículas de tamaño B:medio y a 8 W/mK con tamaño de partícula A:fina, medidos a temperatura ambiente, 5 C. El cambio en la conductividad térmica pueden asociarse a la diferente conectividad de las partículas cerámicas de refuerzo dentro de la matriz de Mg-AZ9E y tener diferente distribución de tamaño de partícula. Figura 6. Conductividad térmica para los compuestos con distribución de tamaño de partícula de AlN: A:fina, B:media y C:grusa infiltrados a 850 C por minutos. Fuente: Elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 84 Cónductividad Térmica (W/mK) Mg-AZ9E/AlN A:fina 53 Mg-AZ9E/AlN A:media 47 Mg-AZ9E/AlN A:gruesa

194 4. CONCLUSIONES En el presente trabajo se llevó a cabo la fabricación y caracterización de un material compuesto Mg- AZ9E/AlN empleando tres polvos de AlN con distribución de tamaño de partícula, empleando la técnica de infiltración sin presión externa. Preformas en verde, es decir sin previa pre-sinterización, fueron infiltradas con la aleación Mg-AZ9E a 850ºC. Los estudios de MEB muestran que el refuerzo y la matriz están hom*ogéneamente distribuidos sin la formación aparente de una interfase o bien sin productos de reacción entre la matriz y el refuerzo. Resultados de la caracterización mecánica indican valores promedio del módulo de elasticidad cercanos entre los tres compuestos con una variación entre 08 a GPa. El coeficiente de expansión térmica lineal es de 9.6 x0-6 C - y 8.96x0-6 C - en el rango de temperatura entre 5 a 300 C y la conductividad térmica disminuye en el orden de 8, 53 y 47 W/mK para los compuestos con distribución de tamaño de partícula A:fina, B:media y C:gruesa, respectivamente. 5. AGRADECIMIENTOS Los autores agradecen el apoyo recibido por parte del Consejo Nacional de Ciencia y Tecnología (CONACYT- Proyecto: 6786) y a la Coordinación de la Investigación Científica de la Universidad Michoacana de San Nicolás de Hidalgo. 6. REFERENCIAS [] D.R. Askeland, "Ciencia e Ingeniería de los Materiales", 3ra Edición, Thomson International Thomson. España, 998. [] C.E. Da Costa, F.V. López, J.M.Y. Castello, "Materiales compuestos de matriz metálica: Parte I. Tipos, propiedades, aplicaciones", Revista de Metalurgia. Vol. 36. No. 3. pp [3] Y. Sahin, M. Acilar, "Production and properties of SiCp-reinforced aluminium alloy composites". Composites: Part A. Vol. 34. pp [4] H.Z. Ye, X.Y. Liu, B. Luan, "In-situ synthesis of AlN in Mg-Al alloy by liquid nitridation". J. Mater. Proc. Tech. Vol.66. pp [5] S. Swaminathan, B. Srinivasa Rao, V. Jayaram, "The production of AlN-rich matrix composites by the reactive infiltration of Al alloys in nitrogen". Acta Mater. Vol. 50. pp [6] D.-F. Liia, J.-L. Huang, S.-T. Chang, "The mechanical properties of AlN/Al composite fabricated by squeeze casting". J. Eur. Cer. Soc. Vol.. pp [7] Q. Zhang, G. Chen, G. Wu, Z. Xiu, B. Luan, "Property characteristics of AlN/Al composite fabricated by squeeze casting technology". Mat. Lett. Vol. 57. pp [8] M. Chedru, J. Vicens, L. Chermant, B.L. Mordike, "Aluminium-aluminium nitride composites fabricated by melt infiltration under pressure". J. Micros. Vol. 96. pp [9] H.Z. Ye, X.Y. Liu, "Review of recent studies in magnesium matrix composites". J. Mater. Sci. Vol. 39. pp [0] A. Contreras, C. A. León, R.A.L. Drew, E. Bedolla, "Wettability and spreading kinetics of Al and Mg on TiC". Scrip. Mater.Vol. 48. pp [] D. Muscat, K. Shanker, R.A.L. Drew, "Al/TiC composites produced by melt infiltration". Mat. Sci.& Tech. Vol. 8. pp [] R. Asthana, "Reinforced cast metal part I: Solidification and microstructure". J. Mater. Sci. Vol. 33. No. 7. pp [3] R. Asthana, "Reinforced cast metal part II: Evolution of interface". J. Mater. Sci. Vol. 33. No. 8. pp [4] D.J. Lloyd, "Particle reinforcement aluminum and magnesium matrix composites". Intern. Mater. Rev. Vol. 39. No.. pp [5] D.J. Lloyd, H.P. Lagacé, A.D. McLeod, "Interfacial phenomena in metal matrix composites: Controlled interfaces in composite materials". Edited by Hatsuo Ishida, Elsevier Science Publishing Co., Inc. pp [6] A.D. McLeod, C.M. Gabryel, "Kinetics of growth of spinel MgAl O 4 on alumina particulate in aluminum alloys containing magnesium". Metall. Trans. A Vol. 3. pp [7] S.W. Lai, D.D. Chung, "Fabrication of particulate aluminum matrix composites by liquid metal infiltration". J. Mater. Sci. Vol. 9. pp [8] Q. Zhang, G. Chen, G. Wu, Z. Xiu, B. Luan, "Property characteristics of AlN/Al composite fabricated by squeeze casting technology". Mat. Lett. Vol. 57. pp Alejandro Ayala-Cortes: Ingeniero Químico por la Facultad de Ingeniería Química de la Universidad Michoacana de San Nicolás de Hidalgo. José Lemus-Ruiz: Licenciado en Ciencias Físico-Matemáticas, con estudios de Maestría en Ciencias en Metalurgia y Ciencias de los Materiales, ambos por la Universidad Michoacana de San Nicolás de Hidalgo. Doctorado por la Universidad de McGill en Montreal, Canadá. Miembro del Sistema Nacional de Investigadores Nivel desde 00. Profesor e Investigador en el Instituto de Investigación en Metalurgia y Materiales con más de 4 años de experiencia. Egberto Bedolla-Becerril: Ingeniero electricista por la Universidad Michoacana de San Nicolás de Hidalgo, con estudios de Doctorado por la Universidad de Newcatle Upon Tyne en Inglaterra. Miembro del Sistema Nacional de Investigadores Nivel II. Profesor e Investigador en el Instituto de Investigación en Metalurgia y Materiales con más de 4 años de experiencia. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 85

195 SECCIÓN V INGENIERÍA INDUSTRIAL 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 86

196 GESTIÓN DE CONOCIMIENTO EN UN CONTEXTO EMPRESARIAL A TRAVÉS DE LA TECNOLÓGIA DE OBJETOS DE APRENDIZAJE Resumen Este proyecto ha propuesto un modelo de gestión del conocimiento basado en e-learning y en tecnología de objetos de aprendizaje enfocado a un contexto corporativo. Las empresas de hoy en día no solo se preocupan por generar conocimiento, sino por administrarlo y difundirlo para su aplicación en el lugar y en el momento oportunos. Se presenta una conceptualización de la capacidad de aprendizaje, diferentes definiciones de conocimiento y el análisis de las capacidades de generación de conocimiento de una empresa. Se describe lo que es la gestión y la movilidad de los stocks de conocimiento generados por los empleados utilizando sistemas administradores de aprendizaje. El análisis del aprendizaje en sus tres niveles: individual, grupal y corporativo y la interacción entre éstos es una parte central de este documento. Se concluye con un modelo que incluye directrices de integración del cambio como garantía del éxito de su implantación. Palabras claves Administración de conocimiento, objetos de aprendizaje, stock de conocimiento.. ELISA URQUIZO BARRAZA, Ingeniero en electrónica Dr. Profesor investigador Instituto Tecnológico de la Laguna elisaurquizo@gmail.com ENRIQUE CUAN DURÓN Ingeniero en electrónica Dr. Profesor investigador Instituto Tecnológico de la Laguna kcuand@gmail.com DIEGO URIBE AGUNDIS, Ciencias de la comunicación Dr. Profesor investigador Instituto Tecnológico de la Laguna diegouribeagundis@gmail.com ARNOLDO APOLONIO FERNÁNDEZ RAMÍREZ, Ingeniero industrial mecánico Dr. Instituto Tecnológico de Nuevo León Profesor nivel licenciatura arnoldo08@gmail.com SARA MARÍA VELÁZQUEZ REYES, Ingeniero industrial Dr. Profesor investigador Instituto Tecnológico de la Laguna saravelazquezreyes@gmail.com. INTRODUCCIÓN El interés por esta investigación nace a partir de una combinación esencial en las instituciones educativas y centros de investigación para el logro de sus objetivos. Estas áreas son las tecnologías de la información y comunicación y la administración del conocimiento. La habilidad para adquirir información, transformarla en conocimiento, incorporarlo como aprendizaje, compartirlo rápidamente y ponerlo en práctica, donde, cómo y cuando sea necesario, constituyen la capacidad organizativa más importante para enfrentar los problemas de creación y difusión de conocimiento de las instituciones educativas. Hoy por hoy existe un consenso generalizado acerca de que el conocimiento no es sino el resultado de un proceso iterativo: el aprendizaje, por tanto la calidad del conocimiento está íntimamente relacionado con la calidad de los procesos administrativos que propician su producción, difusión y aplicación [].. CAPACIDAD DE APRENDIZAJE Las empresas, los centros de investigación e innovación asociados a ellas y de manera general todos los departamentos y sus empleados son generadores de conocimiento y como tal deben ser ágiles, capaces de cuestionar su pasado y de hacer las cosas aprovechando la tecnología disponible. Para todo esto el conocimiento es la clave al igual que la actitud hacia el cambio y hacia una mejora constante. En una economía donde lo único cierto es la inestabilidad, el conocimiento es una fuente segura de ventaja competitiva sostenible y de aseguramiento de recursos para la investigación, esta es la gran aseveración de este trabajo. Cuando los mercados cambian, las tecnologías proliferan, los competidores se multiplican y los productos pronto quedan obsoletos, las empresas exitosas son aquellas que crean nuevos conocimientos, los difunden rápidamente por toda la empresa, y los aplican a nuevas tecnologías y 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 87

197 productos. Las empresas inteligentes y sus centros de investigación e innovación, como productores indiscutibles de conocimiento, no pueden confiar exclusivamente en el mantenimiento del conocimiento adquirido o en sus habilidades actuales, sino que deben ser capaces de desarrollar y aplicar conocimientos nuevos. Al mismo tiempo deben conservar la capacidad de ajuste de sus características internas a las transformaciones del entorno ya que esto se reflejará en los productos y/o servicios que ofrecen. Todo ello es un fundamento para la obtención de resultados superiores que garanticen su supervivencia. Todas las empresas y principalmente sus centros de investigación e innovación pueden ser considerados como un sistema de acciones maduradas que conforman un proceso de transformación dirigido a la producción de productos de investigación en su entorno de actividad. Desde una perspectiva de estas empresas como sistema, su efectividad estará condicionada a lo ideal de sus elecciones estratégicas a largo plazo, a la elección de sus procesos de transformación de conocimiento y a la adecuada coordinación de los mismos. Estas condiciones están fundamentadas en el conocimiento previo de la relación entre sus acciones y sus resultados, así como en el de las condiciones bajo las cuales tiene lugar esa relación, de manera que la efectividad de estas empresas está determinada por la calidad de esos conocimientos. De acuerdo con ello, el conjunto de saberes y conocimientos que se desarrollan en este contexto empresarial son un elemento crítico para el despliegue coordinado de sus otros activos y capacidades, de tal forma que globalmente, ayuden a la consecución de los objetivos y metas competitivas de toda la empresa. Esencialmente el conocimiento constituye la principal fuerza de progreso de una empresa y el condicionante fundamental de su trayectoria evolutiva. El modelo presentado en esta aportación propone un diagnóstico de la capacidad de aprendizaje y de la producción de conocimiento para ello se hace referencia al modelo de los tres cimientos que es utilizado para diagnosticar las capacidades de aprendizaje de las organizaciones y es sencillo adecuarlo a diferentes contextos organizaciones y centros de investigación, está basado en la propuesta de Yeung, Ulrico, Nason y Glinowy []. Los tres cimientos se refieren a la generación de ideas con impacto, a su difusión y al diagnóstico de las incapacidades para generar conocimiento. Este diagnóstico pone de manifiesto la calidad de los flujos explotadores y exploradores del conocimiento (al interior y exterior de la empresa respectivamente). En la figura se muestran los componentes del modelo de los tres cimientos. Figura 3. Modelo de los tres Cimientos para Identificar incapacidades de aprendizaje. GENERAR IDEAS CON IMPACTO GENERALIZAR IDEAS CON IMPACTO CAPACIDAD DE APRENDIZAJE Fuente: A. Yeung, D.O. Ulrico, S. W. Nason, M.A. Von Glinow, Las capacidades de aprendizaje de la organización. Cómo aprender a generar ideas con impacto, México, D. F., Ed. OXFORD, pp. 4, TECNOLÓGIA DE OBJETOS DE APRENDIZAJE IDENTIFICACIÓN Los objetos de aprendizaje, OA, son el elemento clave del modelo propuesto al tratarse como stocks de conocimiento. Estos objetos han sido definidos desde diferentes perspectivas, el paradigma orientado a objetos hace referencia a sus características de, autocontenido, cohesión y reutilización [3]. La IEEE dice que es una entidad, digital o no digital, que puede ser utilizada para aprendizaje, educación o entrenamiento [4]. El CUDI (Cooperación Universitaria para el Desarrollo de Internet propone una definición que contempla la generación de conocimiento como una de las finalidades del objeto de aprendizaje [5]. En el modelo propuesto las variables de stock están representadas por los OA y la variable de flujo está representada por el aprendizaje. 4. SISTEMAS DE GESTIÓN DE APRENDIZAJE, LMS Y DE CONTENIDO, LMSC. Un sistema de gestión del aprendizaje es un software instalado en un servidor que se utiliza para la creación, gestión y distribución de contenido, principalmente de formación, a través de Internet. Un LMS cuenta con herramientas de comunicación (sincrónica y asincrónica), de generación de contenidos y actividades, informativas y de gestión administrativa. Esta última función es la que se explota en el modelo propuesto. Los LMCS son sistemas independientes o integrados con el LMS que gestionan y administran los contenidos de aprendizaje. Operan como mega-plataformas que añaden técnicas de gestión de conocimiento al modelo LMS. Son ambientes estructurados diseñados para que las empresas puedan implementar mejor sus procesos y prácticas con el apoyo de cursos de capacitación, planes estratégicos y contenidos de actividades operativas en línea. De manera general actúan como medio de difusión del conocimiento que se genera en la empresa. DE INCAPACIDADES PARA APRENDER 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 88

198 El apoyo de estos sistemas para la empresa, en su función de gestionar el conocimiento, y la medida en que lo hace nos hace reflexionar acerca de la importancia que reviste para dicha empresa el conocimiento en sí. De qué forma entiende la empresa esta gestión del conocimiento, y si el conocimiento se está utilizando, la forma en la que lo está haciendo y, finalmente, que beneficios puede aportar esta gestión son puntos de análisis previos a la implementación del modelo. La gestión del conocimiento puede verse como una metodología que, usando las facilidades que ofrecen las plataformas tecnológicas, ayudará a las empresas a efectuar una transición hacia los nuevos retos: el trabajo en red, la colaboración, la puesta en común de los conocimientos mejorando en general sus indicadores y su productividad beneficiándose al igual que sus empleados para culminar en la última etapa que es la construcción del conocimiento de forma constante e incremental. 5. MODELO DE ADMINISTRACIÓN DE CONOCIMIENTO El modelo se fundamenta teóricamente en el aprendizaje organizacional en los niveles individual, grupal y organizacional [6] y en los stocks de conocimiento para el individuo, para los grupos y para las empresas [7]. Estos son solo algunos de los estudiosos de la gestión del conocimiento que han influido en la propuesta del modelo que aquí se describe, aunado a la aportación de los aspectos tecnológicos que soportan el almacenamiento y flujo de los stocks de conocimiento descritos antes. Las tecnologías de Información y comunicación que se han incluido en el modelo como un elemento imprescindible para la movilización de los stocks de conocimiento y para el acceso y consulta de información son las siguientes: sistemas LMS, e-learning y los repositorios de los objetos de aprendizaje. La interacción de estos elementos se muestra en la figura. Figura. Interaccion del LMS al sistema de administración de conocimiento Fuente: N. Bontis, M. Crossan y J. Hulland, Managing an Organizational learning system by alighing stock and flows, Journal of Management Studies, Vol Un consenso de lo que constituye un sistema de administración de conocimiento incluye subsistemas de aprendizaje y de generación de conocimiento estrechamente relacionados [8][9][0]. Estos sistemas contemplan procesos, técnicas e infraestructura para capturar, organizar y almacenar el conocimiento de las personas. Las tecnologías de información y comunicación y de OA apoyan esta gestión en la recolección, la difusión, la seguridad y la administración sistemática de la información. Específicamente en el modelo propuesto se ha dispuesto una aplicación informática para resguardar la calidad técnica y estructural de los OA al generar OA conceptuales []. Otro módulo es el sistema de administración del cambio como garantía de la aceptación de nuevas formas de aprender. La movilidad de los stocks se realiza con un sistema de administración de aprendizaje, LMS. Figura 3. Figura 3.Inteeraccion de los módulos del modelo de administración de conocimiento propuesto Contexto empresarial creador de Fuente: N. Bontis, M. Crossan y J. Hulland, Managing an Organizational learning system by alighing stock and flows, Journal of Management Studies, Vol Los stocks de conocimiento están representados por procesos probados, justificados y aprobados para su difusión, también por artículos científicos, proyectos o secciones de los mismos, casos de éxito, etc. De manera general será incluido todo aquello que se considere de utilidad para la mejora del quehacer empresarial constituyendo el conocimiento explícito. Se prevé una serie de contenedores para estos elementos que los relacionen entre sí para formar objetos de conocimiento con un nivel de granularidad variable de acuerdo a la solicitud del empleado. Los stocks de conocimiento evaluados provienen de la salida de la aplicación informática que prevé la calidad del stock creado. Esto se realiza a través de plantillas de diseño propuestas de acuerdo a la naturaleza del stock que se desea crear []. Posteriormente se sigue a su edición, empaquetado y exportación. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 89

199 La figura 4 presenta el modelo de conocimiento apoyado con TIC`S producto del análisis de las diferentes posturas al abordar la conceptualización de conocimiento, su generación en los individuos y en las empresas y su administración. En ella se puede apreciar la gestión del cambio como un elemento necesario para la inclusión de las TIC`S como factor de garantía del adecuado almacenaje, tránsito y acceso de los stocks de conocimiento a través de toda la red de conocimiento que da soporte a la empresa. Se aprecian con elipses los elementos a los que da énfasis la propuesta y que orquestados por el BCI (Bussines Change Implementation) [3] armonizan el uso de TIC s en la gestión del conocimiento. El modelo representa al conocimiento presente en forma de stocks almacenados en las bases de datos del repositorio de objetos de aprendizaje. Al movilizarse, estos stocks, dan origen a los flujos de conocimiento que, combinados nuevamente con otros stocks y con la capacitación en línea, dan origen al aprendizaje y consecuentemente a nuevo conocimiento generándose así la espiral ascendente de conocimiento. Figura 4. Modelo de Administración de Conocimiento ISO 900:000 para entornos virtuales de aprendizaje [4], esto garantizará que los escenarios de aprendizaje no sean meros repositorios de texto para recitar y reproducir, sino que sean verdaderas oportunidades de experimentar una nueva forma de aprender que trascienda la imaginación de los empleados y los motive a la creatividad e innovación de la funcionalidad de su papel en la empresa. 6. RECOMENDACIONES PARA LA IMPLEMENTACIÓN DEL MODELO Los productos de investigación considerados como stocks de conocimiento pueden estructurarse como OA si se les da un tratamiento adecuado, tanto en lo que respecta a sus metadatos, características de compatibilidad, editores de OA, como a sus características para facilitar el aprendizaje de los empleados. De esta forma se aprovecha toda la tecnología existente para la creación, almacenamiento y difusión de los OA. Para el caso de proyectos, casos de éxito y prácticas o mejoras extensas que por su naturaleza tengan un nivel de granularidad alto, la propuesta se dirige a especificar como metadato este nivel. Otra opción válida es dividir estos elementos en unidades más pequeñas con un nivel de cohesión más alto que el que presentan de origen. propuesto Fuente: R. Tudor, D. Díaz, La Creatividad y la Administración del Cambio, Oxford University Press. 00 A pesar de la importancia de ambos flujos de conocimiento, explotador y explorador, la propuesta enfatiza éste último por considerar que es al que da más apoyo las TIC S con todo su herramental para la búsqueda y contrastación de oportunidades nuevas que favorezcan a la empresa. Los flujos de conocimiento, representativos de la movilidad del activo, no tendrían efecto sin el uso de TIC S para favorecer dicho movimiento. Para la regulación del diseño de actividades de aprendizaje en línea, se propone seguir las normas del 7. CONCLUSIONES De acuerdo al objetivo planteado en este trabajo se ha puesto en relieve la importancia que tiene el conocimiento y su posición actual como activo principal de las empresas y sus centros de investigación e innovación. Esto ha quedado de manifiesto desde su concepción como producto de un proceso de aprendizaje, el uso de tecnología de información y comunicación, una estrategia de cambio empresarial (BCI), hasta llegar a una propuesta de un modelo integrador de todo ello, producto final en una primera fase. La inclusión de un apartado acerca del roll de las TIC s en este panorama de gestión del conocimiento ha dejado un claro mensaje a las empresas y sus centros de investigación de la importancia de su correcto uso y de la necesaria inclusión de una estrategia de aprendizaje basada en el uso de tecnología de objetos de aprendizaje y de e-learning. Una de las conclusiones fundamentales que se extrae de este trabajo es que, si bien cada empresa aprende en base a sus funciones internas y las de su entorno, el principal reto que se afronta, en el desarrollo de la capacidad de aprendizaje, es el de propiciar el estado de equilibrio entre los dos aspectos fundamentales del conocimiento: la existencia de una cartera de stocks de conocimiento y el desarrollo de flujos de conocimiento para la renovación, transformación y aplicación de esos stocks. Ambos presentes en el modelo propuesto. En este sentido, la cartera de stocks de conocimiento debe ser establecida a partir de los conocimientos de los empleados, independientemente de su papel en la 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 90

200 empresa y del nivel organizacional al que pertenezcan. Esto con el objeto de obtener unas sinergias que no se obtienen del conocimiento aislado. Asimismo, el desarrollo de los flujos de conocimiento ha de conducir a la complementación no sustitución- de la exploración y la explotación del conocimiento. Para afrontar ese desafío, la alta gerencia necesita emprender iniciativas de gestión de conocimiento conciliando dos grandes tipos de elementos facilitadores: aquellos que se refieren a la coordinación de las tecnologías, procedimientos estructurados y sistemas LMS y LCMS necesarios para el desarrollo eficaz de la actuación organizativa, y aquellos que se refieren a la orientación de los comportamientos de los miembros de la empresa al servicio del conocimiento. Resulta evidente la co-existencia de la empresa y de los procesos de investigación, innovación que genera conocimiento, incluso de la actividad del día a día empresarial. De la misma forma no es posible la existencia de una empresa inteligente sin ambos. Esta adecuada relación es la clave para ser un contexto empresarial que además de sus funciones es un centro de producción y difusión de conocimiento. 8. REFERENCIAS [] M.I. Prieto, Una valoración de la Gestión del conocimiento para el desarrollo del aprendizaje de las organizaciones: Un modelo Integrador, 003, [En línea]. Disponible en: [] A. Yeung, D.O. Ulrico, S. W. Nason, M.A. Von Glinow, Las capacidades de aprendizaje de la organización. Cómo aprender a generar ideas con impacto, México, D. F., Ed. OXFORD, pp. 4, 000. [3] L.A. Álvarez, Espinoza, Bucarey, Empaquetamiento y Visualización de Objetos de Aprendizaje SCORM en LMSs de Código Abierto, [En línea]. Disponible en: O_SCORM.pdf [4] LOM. Draft Standard for Learning Object Metadata, IEEE , 5 July (00). [En línea]. Disponible en: v_fina l_draft.pdf [5] M.A. Chan, L. Ramírez, Objetos de Aprendizaje e Innovación Educativa, Trillas, pp (007) [6] M. Crossn, H. Lane y R. White, An Organizational Learning Framework: From intuition to institution, Academy of Management Review, vol [7] N. Bontis, M. Crossan y J. Hulland, Managing an Organizational learning system by alighing stock and flows, Journal of Management Studies, Vol [8] SECI model (Modelo SECI) (Nonaka Takeuchi). [En línea] Disponible en: l [9] A. DiBella, C. Nervis, How Organizations Learn. An Integral Strategy for Building Learning Capability, San Francisco, California, Ed. Jossey-Bass Inc., pp 6, 998. [0] M.J. Marquardt, Building The Learning Organization, New York, Ed. Mc. Graw Hill, pp. 4, 996. [] E. Urquizo, M.S. Flores, E. Cuan, M.C. Hidrogo, Calidad de Concordancia entre Patrones y Competencias. Una Propuesta para los Posgrados del ITL, Recursos Digitales para el Aprendizaje pp , 009. [] E. Urquizo, O. Quintero, E. Cuan, Sistema Automatizado de Patrones de Diseño para OA, Recursos Digitales para la Educación y la Cultura. Volumen SPDECE pp 43 46, 00. [3] R. Tudor, D. Díaz, La Creatividad y la Administración del Cambio, Oxford University Press. 00 [4] L. Izaguirre, Por qué utilizar la guía ISO/IWA?, Revista Iberoamericana de Educación, número 4/ 007. [En línea] Disponible en: 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9

201 ESTUDIO TECNICO DE TRANSFERENCIA TECNOLÓGICA EN INSTITUCIONES DE ECUDACIÓN SUPERIOR Resumen Este documento presenta una revisión teórica sobre el panorama de Transferencia Tecnológica (TT) a través de una exploración de los conceptos, elementos, procesos, mecanismos y modelos de TT. El aporte de este trabajo es puntualizar los aspectos relevantes que pueden servir de apoyo a estudios posteriores en la difusión, el desarrollo y creación de Oficinas de Transferencia Tecnológica (OTT) en Instituciones de Educación Superior. Palabras claves Competitividad, Innovación, Modelos de Transferencia Tecnológica, Transferencia Tecnológica. JAQUELINE VARGAS-GONZÁLEZ, Profesor investigador Tecnológico de Estudios Superiores de Jocotitlán jaqueline_vg@hotmail.com ROBERTO ALEJO ELEUTERIO, Profesor investigador Tecnológico de Estudios Superiores de Jocotitlán ralejoll@hotmail.com. INTRODUCCIÓN El foro económico mundial (WEF) genera un índice de competitividad mundial como resultado de una evaluación a 44 economías a partir de la productividad y la prosperidad generada. El índice se basa en el análisis de pilares de competitividad que incluyen instituciones, infraestructura, salud y educación, eficiencia de mercado laboral, preparación tecnológica, innovación y sofisticación de negocios. Los países que encabezan el ranking son en primer lugar Suiza, seguido por Singapur, Estados Unidos, Finlandia y Alemania. México cayó seis posiciones con respecto al año 03 al pasar de la posición 55 a la 6. Actualmente, la competitividad está estrechamente relacionada con el conocimiento y la Innovación. conocimiento y tecnología principalmente en las Instituciones de educación Superior (IES) debido a que son un elemento imprescindible en el desarrollo de conocimiento, innovación e Investigación, así juegan un papel muy importante en cuanto a competitividad se refiere.. METODOLOGÍA La metodología que sigue este trabajo, es descriptiva teniendo como inicio observar la conceptualización de la TT, los actores involucrados, fuentes, mecanismos y etapas, posteriormente se muestran modelos de TT. En este trabajo se pretende mostrar cuál es el panorama que rodea actualmente a las IES. Los elementos que se consideran son: Mecanismos de transferencia tecnológica, procesos y Estrategias de Comercialización, a través de una visualización de los modelos de TT. La competitividad es el producto de la interacción compleja entre el Estado, las empresas, las instituciones intermediarias y la capacidad organizativa de una sociedad. Los factores centrales son la innovación, el conocimiento y la estrecha relación entre las instituciones públicas, académicas y privadas. La transferencia de tecnología por su parte se refiere al traslado de conocimientos y tecnología, donde se involucran diversos elementos, tales como Gobierno, Empresa y Universidad (Triple Hélice), que requieren interactuar en un entorno habilitador que permita el libre flujo de operaciones entre quienes ofertan y quienes demandan. México, como se mencionó en el primer párrafo ha mostrado una decaimiento en indicadores sobre competitividad, por lo tanto, es importante señalar la influencia e importancia sobre la generación de 3. TRANSFERENCIA TECNOLÓGICA La transferencia tecnológica (TT), ha existido desde hace ya mucho tiempo, desde la antigüedad las naciones han tratado de obtener por diversos medios los adelantos tecnológicos desarrollados por otras naciones con diversos objetivos como aumentar su producción, mejorar su alimentación, combatir enfermedades y pestes, así como incrementar su potencial bélico o fortalecer su poder político. Para López (006) la transferencia tecnológica es entendida como el proceso mediante el cual el sector privado tiene acceso a los avances tecnológicos desarrollados por los científicos a través del traslado de dichos desarrollos a las empresas productivas para su transformación en bienes, procesos y servicios útiles aprovechables comercialmente. Este proceso implica el conjunto de actividades que llevan a la adopción de una 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 9

202 nueva técnica o conocimiento y que envuelve la diseminación, demostración, entrenamiento y otras actividades que de cómo resultado la innovación. Así, la TT es un nexo entre la Universidad y las empresas, para la generación de desarrollo científico técnico y económico. La TT conlleva un convenio, un acuerdo y presupone un pago y por tanto la comercialización del conocimiento es un elemento inherente a este proceso. Con relación al nexo para la generación del desarrollo científico técnico y económico, la red (PILA, 0) coincide al mencionar que, tradicionalmente las Universidades han sido vistas como lugares donde se desarrolla la educación y la investigación básica. Sin embargo, en las últimas décadas se reconoció que las universidades constituyen un factor clave para el desarrollo de economías basadas en el conocimiento que les ha permitido asumir este papel mediante la participación de actividades de cooperación en investigación. Además, menciona que en la caso de Latinoamérica, las Instituciones de Educación Superior (IES), son probablemente las fuentes de innovación y desarrollo más prometedoras. Pero, este potencial está condicionado a generar beneficio sólo si las Universidades cooperan con el sector productivo y los resultados de investigación son gestionados de tal manera que puedan ser llevados al mercado. Es muy importante que las Universidades comprendan y gestionen los activos basados en el conocimiento tales como: las innovaciones, el know how y los derechos de Propiedad Intelectual. La TT implica entonces, la transmisión de conocimientos desde la ciencia básica a la aplicada, de una disciplina a otra, de una institución a otra y de manera general a la difusión del conocimiento científico y técnico, así como también al uso necesario de determinada tecnología en la organización productiva con el propósito de generar un beneficio a través de un bien o servicio. Así, la TT se compone de dos elementos esenciales, el primero conformado por las actividades educativas, de extensión y divulgación y el segundo que tiene un enfoque económico, que es el de pagar por dicha Transferencia tecnológica. 4. ELEMENTOS, MECANISMOS Y PROCESOS DE TT Es importante señalar que la relación entre la investigación, el conocimiento y la transferencia de tecnología y el desarrollo económico es compleja. López (006) considera que para que el desarrollo científico tecnológico tenga lugar en forma efectiva, precisa proponer modelos de TT, en los cuales se identifiquen claramente los actores involucrados y sus intereses en cada etapa del proceso, considerándose como tales a todos los participantes desde la producción del conocimiento hasta su entrega y recepción. En la figura, se muestra la clasificación de los actores que intervienen en el proceso de TT, según Siegel (004) citado en (López G. Socorro, 006). Fig. Clasificación de los elementos que intervienen en el proceso de TT Siegel (004). Científicos Universitarios Administradores de la Tecnología Universitaria Las Empresas Productores primarios del conocimiento o Tecnología Oficinas de Transferencia Tecnológica (OTTs) u Oficinas de Transferencia de Resultados de Investigación(OTRIS).Quienes surgen como intermediarios entre la Universidad y la empresa, y representan los intereses de ambas partes, facilitando la transferencia comercial del conocimiento. Quienes comercializan las tecnologías transadas en el proceso de trnasferencia. Fuente: elaboración propia a partir de Siegel (004) citado en (López G. Socorro, 006) Es necesario además, considerar a los científicos de las empresas, quienes analizan e incorporan el conocimiento adquirido a la Universidad para utilizarlo posteriormente en el proceso de innovación y al Gobierno como generador de políticas públicas que regulan el proceso de transferencia. Así, las principales fuentes de transferencia tecnológica son las Universidades, Centros de Investigación, Empresas y laboratorios. Al Transferir tecnología pasan conocimientos de un lugar a otro, por lo tanto, es imprescindible la protección intelectual. Para la UNCTAD (Conferencia de Naciones Unidas Sobre Comercio y Desarrollo) el proceso de transferencia tecnológica tiene cuatro etapas que son: 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 93

203 Selección, Negociación, Absorción y Adaptación o Innovación. El Consejo Aragonés de cámaras Comercio, menciona que lo mecanismos básicos para transferir tecnología son:. Contratos de transferencia de tecnología. Proyectos de I +D+I colaborativa 3. Spin-off: Creación de Empresas de base Tecnológica 4. Patentes y Modelos de Utilidad Es necesario lograr una interacción eficaz entre los involucrados, encargados de desarrollar tecnología y los usuarios, dentro de un ambiente en el cual exista una sinergia entre el conocimiento, financiamiento y las instituciones involucradas. Para ello se han creado modelos de transferencia tecnológica, que incluyen proceso de transferencia, elementos y actores en la Fig. se muestran las características de algunos modelos europeos, donde se destaca que en modelo Anglosajón los beneficios que genera la explotación comercial, se reparten por igual entre universidad, investigador y departamento al que pertenece, en lo que respecta al modelo Nórdico se destaca que las grandes empresas en que está basado el modelo de innovación llevan sus propias inversiones en I+D, por último en el modelo Centroeuropeo las Instituciones Federales y Regionales se coordinan para fomentar la TT. Fig. Modelos Europeos de TT. MODELO ANGLOSAJON Se basa en tres puntos fundamentales (Rubiralta, 004),.Los derechos de propiedad intelectual de los resultados de la investigación pertenecen a la universidad, con excepción de los derechos de copyright de actividades académicas tales como los libros, las publicaciones, las conferencias, etc.. Los beneficios que genera la explotación comercial de los resultados de la investigación, una vez deducidos los costos, se reparten por igual entre universidad, investigador y departamento al que éste pertenece. 3. Si en la comercialización ha participado algún agente externo, como una oficina de transferencia no adscrita a la universidad, también participa de los beneficios de la comercialización. MODELO CENTROEUROPEO La política de innovación y transferencia tecnológica es dictada desde instituciones federales y regionales, y ambos niveles políticos actúan de forma coordinada para fomentar la transferencia de tecnología (Rubiralta, 004) MODELO NÓRDICO Escasa tradición en el fomento de la transferencia tecnológica de la universidad a la industria, especialmente en el caso de Suecia (Rubiralta, 004), Debido a que las grandes empresas en que está basado el sistema de innovación llevan sus propias inversiones en I+D. Fuente: Elaboración propia a partir de Siegel (004) citado en (López G. Socorro, 006) Fig. 3 Resumen del modelo lineal, dinámico, triple hélice, Massachusetts y UNAM. MODELO CARACTERÍSTICAS Inicia con un científico en un laboratorio, que está trabajando con recursos de investigación públicos. En EE.UU., la ley Bayh-Dole, desde 980, autorizó a las universidades a cobrar derechos por los conocimientos susceptibles de comercializarse que tuvieran financiamiento gubernamental a los académicos se les solicita completar LINEAL un documento de declaración de la invención ante la OTT, donde se analiza la conveniencia o no de patentar dicha innovación, otorgada la patente la OTT la está en condiciones de comercializar,el siguiente paso involucra la negociación con la empresa y el acuerdo de licencia, en la etapa final la tecnología se convierte en un producto comercializado (López G. Socorro, 006) El modelo refleja la finalidad de comercializar la tecnología, contemplando acciones que hagan DINAMICO flexible el proceso a través de mecanismos formales e informales, también enfatiza la importancia de los recursos humanos para la comercialización. López Fierros, (00) Los actores de este modelo son Gobierno, Empresa y Universidad, la 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 94

204 TRIPLE HÉLICE MASSACHUS ETTS UNAM funcionalidad de este sistema depende de la fortaleza y equilibrio de sus interacciones. Una de las claves de este sistema es el conocimiento sobre la capacidad y características de los participantes, para poder propiciar un ambiente habilitador. En dicho sistema se tornan necesarios instrumentos y estructuras para una libre interacción, que dé como resultado aprendizaje. A través de las redes necesarias es posible transferir conocimiento y tecnología entre oferentes y demandantes (López G. Socorro, 006) Suele implementarse en países desarrollados. Los pasos que se incluyen dentro del proceso de transferencia de tecnología son los siguientes: Investigación, Revisión teórica del desarrollo de la tecnología, Evaluación el impacto en el mercado, Protección intelectual, Marketing, Creación de nuevas empresas, Análisis de estrategias de licenciamiento a empresas, Licenciamiento, Comercialización, Generación de ingresos. Las actividades se centran en los servicios técnicos, investigación aplicada, desarrollo tecnológico, capacitación y consultoría. El personal participe está especializado en temas de propiedad intelectual, administración de proyectos y proyectos tecnológicos. Su proceso consiste en: Identificar tecnologías desarrolladas por la UNAM, Identificar necesidades tecnológicas, Estructurar una propuesta de trabajo, Seguimiento Fuente: Elaboración propia a partir de Siegel (004) citado en (López G. Socorro, 006) 5. DISCUSIÓN La TT es un elemento indispensable para la generación de desarrollo económico, que recae a su vez en una mejora en la competitividad del país. La interacción de los actores involucrados en el proceso de TT, debe fluir a través de condiciones apropiadas en la que permita un proceso eficaz, claro e incluyente. Las Instituciones de educación superior, son un factor clave para la generación de conocimiento. Tener presente el panorama entorno a la TT en nuestro país, pretende concientizar sobre las capacidades de acuerdo a la naturaleza de las Instituciones para contribuir en la generación de innovación y desarrollo. Los modelos de TT presentados muestran aspectos comunes, sin embargo, se distinguen por los distintos énfasis que asignan a los componentes, procesos y actores que participan. Fomentar el análisis de las capacidades institucionales y procurar ligarlas a las necesidades de la empresa, podría recaer en elaborar ofertas que puedan ser útiles. 6. CONCLUSIONES Las universidades e instituciones de Educación Superior, son las fuentes de innovación y desarrollo más prometedoras. La concientización sobre el análisis de capacidades de acuerdo a la naturaleza de las instituciones permite poder ofertar para cubrir las necesidades de la industria. Es fundamental que las Instituciones de Educación Superior comprendan y gestionen los activos basados en el conocimiento. El uso de modelos de TT, adecuados a la infraestructura de las Instituciones de Educación Superior, proporcionará un proceso claro a seguir, en el cual cada actor, elemento, puedan interactuar de manera eficaz. A lo largo del desarrollo de este estudio se observaron elementos interesantes, que permitieron vislumbrar posibles escenarios hacia donde encaminar futuras investigaciones sobre los aspectos antes mencionados. Algunas de estas ideas son de especial interés porque han sido poco exploradas y obedecen a problemáticas actuales. La mayor generación OTTs que funjan como intermediarias entre los oferentes y demandantes de TT, ya son una necesidad apremiante para las IES. Resulta complicado medir el éxito y a calidad en el proceso de TT, por lo que es necesario motivar estudios sobre métricas que permitan visualizar la influencia de la TT. 7. REFERENCIAS [] Holi, M. T. (008). Metrics for the Evaluation of knowledge Transfer Activities al Universities. LibrarY House, -3. []López G. Socorro, M. J. (4 de 09 de 006). Un acercamiento al concepto de transferencia tecnológica en las Universidades y sus diferentes manifestaciones. Panorama Socieoeconomico, Obtenido de jul/articulo7.pdf 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 95

205 [3] PILA, R. d. (0). La Red de Propiedad Intelectual e industrial en Latinoamerica. Colombia: Universidad industrial de Santander. [4] Rubiralta, M. (004). Fundacion Cotec para la Innovación tecnologica. Obtenido de -medios/estudio9.pdf. [5] CIATEQ, ADIAT. (009). Unidades de Transferencia tecnologica: Un puente entre la Universidad y la Empresa. Feria de Posgrados Mexicanos de calidad CONACYT. MÉXICO. [6] Conferenciai de Naciones Unidas sobre Comercio y Desarrollo. (3 de Septiembre de 04). UNCTAD. Obtenido de [7] Padilla, A. Á. (4 de Septiembre de 04). Factores Determinantes de la Transferencia Tecnolgica en el ámbito Universitario. Obtenido de Article_Transferencia.pdf [8] Avance y Perspectiva. ( de Septiembre de 04). Obtenido de [9]Ayuntamiento de Gijón. (00). Encuentros Empresariales Cotec. Obtenido de [0] Consejo Aragonés de Cámaras de Comercio. (3 de septiembre de 04). Obtenido de ropiedadtransferenciatecnologia.pdf [] Fernández, C. (3 de Septiembre de 04). Cómo Construir un Sistema de Transferencia de tecnología en un país en desarrollo. Obtenido de f_ pdf [] Fleitman, J. (004). Libro evaluación integral para implantar modelos de calidad 004. Ciemsa Consultores. [3] INEGI. (6 de SEPTIEMBRE de 04). La medición de la competitividad en México: ventajas y desventajas de los indicadores. Obtenido de _opt.pdf [4] Pozas, M. d. (mayo-agosto de 005). Modelos alternativos para la investigación de la innovación y la transferencia. ISSN Obtenido de [5] Ruiz, R. G. (0). Foro de Análisis de Investigación,. Obtenido de nencias/4.pdf 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 96

206 UTILIZACIÓN DE E-LEARNING COMO HERRAMIENTA INNOVADORA Y PRODUCTIVA EN EL PROCESO DE ENSEÑANZA-APRENDIZAJE. Resumen El Objetivo del presente es conocer los conceptos básicos, el marco teórico y estado del Arte de e-learning para aprovechar sus recursos como herramienta innovadora y productiva en el proceso de enseñanza-aprendizaje. La metodología utilizada es la de una investigación documental. Se recurrió a bibliografía, referencias electrónicas y hemerográficas, aplicando el método científico. Presenta el origen, desarrollo y las posibilidades de uso del e-learning en el proceso de enseñanza-aprendizaje, presentando sus resultados, entre ellos la existencia de modelos en los que se propone combinar recursos en línea (e-learning) con educación presencial, logrando un máximo aprovechamiento en el estudiante, quien está inmerso en un ámbito global, pudiendo tener en la palma de la mano el conocimiento, para ello el uso masivo de dispositivos inteligentes (Smart devices). El uso de e-learning en el proceso de enseñanza-aprendizaje, constituye una estrategia eficiente en la formación integral del estudiante, promoviendo su capacidad de autoaprendizaje. M. EN A. EVA VERA MUÑOZ Tecnológico Nacional de México Instituto Tecnológico de Tlalnepantla evvera004@yahoo.com.mx M. EN A. ILIANA GABRIELA LAGUNA LÓPEZ DE NAVA Tecnológico Nacional de México Instituto Tecnológico de Tlalnepantla ilianaxim@hotmail.com ING. LUIS CANO SANTACRUZ Tecnológico Nacional de México, Instituto Tecnológico de Tlalnepantla luis_cano_s@yahoo.com. Palabras claves enseñanza-aprendizaje, e-learning, educación presencial y virtual, Tecnologías de Información y comunicación (TIC). Abstract The objective of this is to know the basics, the theoretical framework and state of the art e-learning to harness their resources as innovative and productive tool in the teaching-learning process. The methodology used is that of a documentary investigation. He turned to literature, electronic references and periodical, applying the scientific method. Presents the origin, development and usability of e-learning in the teaching-learning process, presenting their results, including the existence of models which aims to combine online resources (elearning) with classroom education, making maximum use to the student, who is immersed in a global scope, and can be in the palm of your hand knowledge, for which the widespread use of smart devices (Smart devices). The use of e-learning in the teaching-learning process, is an efficient strategy for formation of the student, promoting their self-learning.. Keywords teaching-learning, e-learning, classroom education and virtual.. INTRODUCCIÓN La educación es uno de los elementos más importantes para el desarrollo de un país, de la calidad e innovación de ésta labor depende su progreso, entre mejor preparados los jóvenes, podrán aspirar a mejores condiciones de vida en todos sus aspectos, personal, profesional y social. Éste artículo comprende una breve introducción al tema, mencionando los antecedentes de e- learning, su concepto y lo más importante sobre el marco teórico para después llegar a conclusiones y recomendaciones. Muestra la posibilidad de aprovechar las tecnologías de Información y comunicaciones en el proceso de enseñanza-aprendizaje, incluyendo los dispositivos inteligentes, combinando la parte virtual (e-learning) a la presencial a fin de fortalecer dicho proceso, encontrándose evidentes beneficios que repercutirán en la formación integral y la competitividad del estudiante. Se muestran varias modalidades del e-learning a elegir, las cuales el docente puede implementar, adaptándolas a la educación presencial, es decir que el docente actual debe utilizar las herramientas proporcionadas por las TIC para obtener mejores resultados en el proceso de enseñanzaaprendizaje. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 97

207 . MARCO TEÓRICO. Antecedentes Existen en la bibliografía diversas aseveraciones con respecto al origen del e-learning. Hay quien dice que la primera vez que se usó el término de e-learning fue en 999 en un seminario presentado por la empresa CBT Systems, (Hubbard, 04). Sin embargo hay quien afirma que surgió a finales de 997 y principios de 998, referido por Elliot Masie, conocido gurú sobre el tema (Roldán, y otros, 0). Concepto Se entiende por e-learning a la utilización de las tecnologías de internet para concebir, difundir, seleccionar, administrar y desplegar la formación (Roldán, y otros, 0), conceptualizada también como conducir la formación a los individuos y no conducir a los individuos a la formación (Roldán, y otros, 0). A través de los años se ha llegado a la concepción de que e- learning es un nuevo concepto de educación a distancia en el que en el que se integra el uso de las TIC y otros elementos didácticos para el aprendizaje y la enseñanza (Roldán, y otros, 0), en este concepto TIC se refiere a Tecnologías de Información y Comunicaciones. La letra e se antepone a otra palabra, indicando que es una aplicación de internet, es decir electrónica. Otro concepto es un nuevo ambiente de aprendizaje en donde se integran las tecnologías de información como Internet y elementos didácticamente innovadores, como los objetos de aprendizaje; otorgando beneficios a tutores, alumnos y a la propia organización, la cual adquiere como ventaja competitiva la actualización constante de sus materiales didácticos, a bajos costos de producción, impactando directamente en el desarrollo del personal. (Sánchez Sodi, 007).3 características del entorno de e-learning Son tres los roles involucrados: alumno, profesor-tutor y administrador. El alumno es el más importante actor y los resultados del sistema de e-learning se reflejarán en su aprendizaje. Es recomendable conocer el perfil del estudiante para crear un entorno adecuado. Otros elementos a considera son la motivación del alumno, un ambiente sencillo y rápido, así como buena interrelación entre profesor-tutor y alumnos. El profesor-tutor es quien tiene la responsabilidad académica, y posee el conocimiento experto de la asignatura, además de dominar el entorno virtual para utilizarlo eficientemente, teniendo que aportar contenidos que refuercen el aprendizaje. El administrador es el responsable de asegurar que la plataforma funcione óptimamente en su aspecto tecnológico, debe conocerla perfectamente y resolver cualquier duda del sistema a los usuarios, así como resolver alguna contingencia que pudiera presentarse. Es muy importante que la comunicación fluya entre profesor-alumno y para ello el buen funcionamiento del sistema sustentado por el administrados..4 ventajas y desventajas de e-learning Entre las principales ventajas se encuentran las siguientes: Capacidad de aprender en cualquier momento y lugar. Aprendizaje eficaz. Promueve el autoaprendizaje. El aprendizaje se extiende a mayor número de estudiantes. Reducción de costos. Algunas de las desventajas son: No todos los temas se pueden abordar en línea No hay interacción física con los estudiantes. Limitaciones sociales en zonas cuyo acceso a avances tecnológicos es mínimo o nulo. Dependencia tecnológica..5 modalidades de e-learning Para determinar que modalidad de e-learning, será necesario conocer varios factores, tales como, características del alumno; del profesor; la materia o tipo de conocimiento a aprender, entre otros. La siguiente clasificación se basa de acuerdo a la metodología utilizada. Los tipos más utilizados son:.5. e-learning Es el propiamente dicho, aplicado en formación a distancia, Es decir, cuando nos referimos a la realización de un curso e-learning, estamos hablando de un curso totalmente on-line, en el que toda la relación profesoralumno se realiza virtualmente, sin ningún tipo de presencialidad. (Roldán, 0).5. b-learning Es aquella modalidad en dónde se integran tanto la formación virtual, como la presencial, de ahí el termino Blended (mezcla) learning o b-learning, refiriendo a un tipo de enseñanza-aprendizaje mixto. Este modelo consiste en combinar recursos on line con la educación presencial y presentan el potencial innovador necesario para transformar la enseñanza y el aprendizaje tal y como los hemos concebido hasta el momento. (Martín García, y otros, 04). 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 98

208 .5.3 síncrono Síncrono.- Se clasifica en base a la relación de tiempo en que coincide profesor-alumno. En un modelo síncrono los alumnos coinciden en tiempo con el profesor, existiendo comunicación directa y al instante mediante chat, videoconferencia, pizarra digital u otro medio digital disponible..5.4 Asíncrono En base a la misma relación de tiempo anterior, es cuando profesor alumno pueden conectarse a la red en distintos tiempos, es decir la comunicación no es instantánea. Se pueden utilizar otros medios para ello, como son: foros, correo electrónico, red social o algún otro canal..5.5 Tutorizado Este tipo es el que imprescindiblemente cuenta con la tutoría y seguimiento de un profesor, el cual guía, resuelve dudas, comenta, da observaciones y evalúa al estudiante. Son cursos bien diseñados, en donde el alumno puede contar con información adicional a la básica, la cual puede considerar para ampliar sus conocimientos sobre los temas, pudiendo comentarlo con el profesor para su mejor comprensión..5.6 Autoformación Autoformación.- En contraposición del anterior, en la autoformación on-line el propio alumno es responsable de su aprendizaje, midiendo sus resultados, autocorrigiéndose y avanzando a su propio paso. Se trata de cursos en línea con temáticas sencillas o alcanzables al tipo de alumno..5.7 M-Learning Móvil Learning, específicamente es un tipo de e-learning, utilizando un dispositivo móvil (tableta, teléfono, lector electrónico, etc.) conocidos también como Smart devices, que han venido a revolucionar las telecomunicaciones e influyendo en la forma de aprender. Cuentan con múltiples aplicaciones que se pueden aprovechar para tal efecto, dando servicios que anteriormente se usaban únicamente en una computadora, teniendo así grandes beneficios por su fácil manejo y traslado. Las ventajas y desventajas de estos tipos se muestran en la Tabla No. Tabla. Modalidades de e-learning. (Roldán, y otros, 0) Modalidad Ventajas Desventajas E-learning Total flexibilidad En ocasiones, e independencia, algunas sin horarios. temáticas son difíciles de ser impartidas sin presencialidad. B-learning La Pérdida parcial presencialidad complementa en gran medida la de flexibilidad y dependencia física y temporal. formación. Síncrono Permite la Requiere de resolución de disponibilidad dudas rápidamente. horaria de todos los participantes. Asíncrono El seguimiento Requiere de es totalmente mucha libre a horarios. constancia por el docente para evitar largas esperas. Tutorizado El alumno puede Limita la consultar las formación en dudad que le número de surjan. alumnos al tener un recurso limitado. Autoformación Todo está Si surgen dudad pensado para que hay que recurrir el alumno sea a las ayudas a autosuficiente. veces no muy descriptivas. M-learning La formación Los dispositivos está disponible limitan las en cualquier acciones que momento y pueden hacer los lugar. usuarios Fuente: elaboración propia..6 Recursos De E-Learning Entre los diversos recursos o herramientas de e-learning se encuentran los siguientes, mencionando igualmente que hay diversas plataformas en los que se implementan, tales como dotrln, Moodle y Sakai.. Foros de discusión. Bloggers 3. Wikis 4. Redes sociales 5. Chat 6. Correos electrónicos 7. Mensajerías internas 8. Videoconferencias 9. Video sesiones 0. Pizarra electrónica. Bitácoras. E-portafolio (evidencias electrónicas) 3. Secciones para anotaciones personales 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 99

209 4. Utilidades de calendario para planificar actividades en el curso 5. Ayuda para el uso de la plataforma 6. Buscadores de cursos y/o libros 7. Formas para comunicarse fuera de línea, incluso trabajar en equipo. 8. Grupos de trabajo 9. Transferencias de archivos 0. Sistemas de autoevaluación.. Soportes bibliográficos en varios formatos HTML, Word, Excel, Acrobat, etc.).. Librerías digítales 3. Aplicaciones móviles 4. Aulas virtuales Estos recursos sólo son algunos, ya que existe una clasificación más precisa, que para el caso del presente artículo, sólo baste con los ya mencionados, considerándolos como los más importantes. 3. METODOLOGÍA Por ser una investigación inicial sobre el tema, la metodología utilizada fue la de una investigación documental. Se recurrió a bibliografía, referencias electrónicas y hemerográficas, así como se indago sobre su estado del arte, para que más adelante en una segunda parte de la investigación se realice una encuesta del estado actual del desarrollo del e-learning mediante una muestra seleccionada. Igualmente se aplicó el método científico para la investigación, desde recopilación, organización, procesamiento y análisis de la información, llegando a conclusiones. 4. CONCLUSIONES Es evidente que nuestro mundo es cada vez más dinámico, en donde las TIC juegan un papel muy importante en todas las áreas de actividad del hombre, es por ello que la educación no podía quedar fuera de ellas, surgiendo así el e-learning. Concebido como: el proceso de enseñanza-aprendizaje por medio de Internet, el cual conlleva múltiples herramientas y aplicaciones en la nube. El desarrollo de las TIC proporciona a la educación presencial las posibilidades de adoptar innovadores modelos de e-learning, enriqueciendo y eficientando su proceso. Actualmente se puede ver un profesor, en un sistema presencial, utilizando recursos como aulas virtuales, blogs, chat, mensajerías, aplicaciones móviles, videos de la red, etc., conjuntamente con los estudiantes, para quienes las TIC ya es parte innata de su cotidianidad. Sirva el presente para dar a conocer los conceptos y el marco teórico sobre el tema, constituyendo un precedente tanto para aplicar los recursos del e-learning por parte de los docentes y para futuros estudios al respecto, siempre en pro de la innovación, mejoramiento y productividad en el proceso de enseñanza-aprendizaje. 5. RECOMENDACIONES No cabe duda que el tema de e-learning es sumamente interesante, quedando varias tópicos sobre el mismo para futuros artículos e incluso un libro, no obstante por espacio y tiempo se incluyó lo más importante, siendo una investigación de inicio. Le queda al docente, la decisión de elegir que recursos de e-learning implementar en sus cursos, pero no puede quedar fuera del beneficio de las TIC. Finalmente, se espera que éste artículo constituya un espacio de investigación para todo aquel estudiante, profesionista o docente, que desee contribuir con otros estudios sobre el tema, pudiendo realizar nuevas publicaciones, ensayos o libros relacionados. 6. REFERENCIAS [] Hubbard, R. (04). Manual indispendable de instrucciones para el e-learning. México: Patria. [] Martín García, A. V., et. al. (04). Blended Learning en Educación Superior, Perspectivas de Innovación y cambio. Madrid: Síntesis. [3] Roldán, D. B. et. al. (0). Gestión de Proyectos de E-learning. México : Alfaomega. [4] Sánchez Sodi, C. (007). E- Learning. Gestión de Procesos. México: Porrúa [5] Moreno González, S., & Luchena Mozo, G. (04). Formación e-learning en la enseñanza superior de Derecho: experiencía en la Universidad de Castilla-La Mancha. REDU, Revista de Docencia Universitaria, España,vol. (3) [En linea]. Disponible en: d=ba377a-a3fa-4cf4-89bc- 7b69f5d9d570%40sessionmgr4&vid=3&hid=3. Eva Vera Muñoz: Licenciada en Administración con Diplomado en Ciencias de la Educación y estudios de Maestría en Administración. Docente de la Maestría en Administración y de la Ingeniería en Tecnologías de Información y Comunicaciones del Tecnológico Nacional de México, Instituto Tecnológico de Tlalnepanta. Iliana Gabriela Laguna López de Nava: Licenciada en sistemas de computación Administrativa con estudios de Maestría en Administración. Docente de la Maestría en Administración y de la Ingeniería en Tecnologías de Información y Comunicaciones del Tecnológico Nacional de México, Instituto Tecnológico de Tlalnepanta. Luis Cano Santacruz: Ing. Electromecánico. Docente de la Ingeniería en Tecnologías de Información y Comunicaciones del Tecnológico Nacional de México, Instituto Tecnológico de Tlalnepanta. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 00

210 DESARROLLO DE UN SISTEMA DE CALIDAD PARA LA LOGÍSTICA DE EMPAQUE Y EMBARQUE DEL MELÓN CANTALOUPE EN LA COMARCA LAGUNERA PARA SU EXPORTACIÓN Resumen-- La Comarca Lagunera cuenta con una ubicación geográfica estratégica que la ha convertido en una ventaja competitiva para la comercialización de diferentes productos. El 97% de su producción agraria se concentra en los siguientes productos: alfalfa verde, maíz forrajero, algodón, melón, frijol, nuez, avena forrajera, tomate rojo. El melón mexicano, es una hortaliza que ha mantenido su participación en el mercado internacional por su calidad. Sin embargo, la producción del melón cantaloupe propio de la Región Lagunera no cuenta con un programa de comercialización establecido, lo cual complica la posibilidad de expandir el intercambio de insumos, materias primas y entrega de productos elaborados, que lo hagan evolucionar al comercio exterior. El presente proyecto de investigación detalla el diagnóstico del proceso de conservación, empaque y embarque del melón cantaloupe en la Comarca Lagunera, para conocer su factibilidad de exportación a mercados internacionales e identificar oportunidades de mejora para su competitividad. Palabras claves-- Embarque, Empaque, Logística, Melón. SARA MARÍA VELÁZQUEZ REYES Instituto Tecnológico de la Laguna saravelazquezreyes@gmail.com MARÍA LUISA LÓPEZ SEGURA Instituto Tecnológico de la Laguna maluse@hotmail.com ALMA DELIA GONZÁLEZ CÁRDENAS Instituto Tecnológico de la Laguna alma_gc04@hotmail.com BENDIGNO LANDERO ARENAS Instituto Tecnológico de la Laguna beniland3@hotmail.com JOSÉ ENRIQUE SIFUENTES VARGAS Instituto Tecnológico de la Laguna esifuentesv@hotmail.com MARÍA CRISTINA GARCÍA CARRILLO Instituto Tecnológico de la Laguna m.c.garciac@hotmail.com. INTRODUCCIÓN El estudio se llevó a cabo en los municipios de Tlahualilo, Durango y Matamoros, Coahuila, se realizaron investigaciones de campo en distintas empacadoras, centros de acopio, armadoras de caja y puntos de venta al menudeo. Se desarrolló el Sistema de calidad para la logística de empaque y embarque del melón de la región basado en el Análisis de Peligros y Puntos Críticos de Control (HACCP por sus siglas en inglés). Así como estrategias para fortalecer cada una de las etapas de este proceso y un plan de acción correctivo. Este proyecto busca ser un instrumento de apoyo que impulse la economía de la región al aprovechar el melón que se produce para su comercialización en el mercado internacional, adicionalmente, es una herramienta potencial de desarrollo e implementación de nuevas técnicas y métodos que propicien una mejor organización y estructura para los productores. El melón contiene agua en un 90%, fibra dietética, energía, proteínas, vitaminas y minerales. La planta desarrolla raíces abundantes con un crecimiento rápido entre los 30 y 40 cm de profundidad. El ciclo fenológico desde la siembra y hasta su fructificación varía de 90 a 0 días. La calidad de los frutos resulta tanto mejor cuando más elevada sea la temperatura en el momento en que se aproxima la madurez (SAGARPA INIFAP, 0). En la tabla se presenta la evolución de la superficie cosechada y la producción de melón en México para el período 00 0, durante ese periodo fue de 0,90 hectáreas anuales y una producción de 567,008 toneladas. (FA0, 03). Tabla. Producción de melón en México, años ANTECEDENTES El melón por su origen es de clima templado, cálido y luminoso; que adquieren su mayor desarrollo en las estaciones secas y calurosas. Este cultivo está ubicado dentro de las familias de las cucurbitáceas y es una planta herbácea, anual y rastrera. Fuente: Elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

211 Los principales estados productores de melón cantaloupe del país son: Coahuila en primer lugar con 4%, seguido de Michoacán y Guerrero con un 9% cada uno, Durango con % de la producción y Sonora con el 7% del total. Los miembros de la liga de Comunidades Agrarias y Sindicatos Campesinos (CNC) y productores de melón se ven afectados por intermediarios que ellos denominan coyotes, debido a que les pagan a muy bajo costo la producción de melón; por lo que mencionan que no llegan a recuperar lo que invirtieron durante la siembra. Además se desconoce la situación actual de la Comarca Lagunera en elementos claves como la calidad e inocuidad de los productos y procesos de conservación, empaque y embarque. 3. METODOLOGÍA contratadas por él mismo. La cosecha se realiza manualmente desprendiendo el fruto del tallo. La selección del producto a recolectar se basa en las siguientes características:. Tamaño. Color 3. Consistencia 4. Textura 5. Madurez La imágenes es ejemplo de melón considerado para cosecha y la imagen es el melón no apto para recolección tomando en cuenta los criterios anteriores. Imagen. Melón considerado para cosechar La metodología de investigación se fundamenta en un estudio exploratorio de los productores de melón cantaloupe y de aquellos que empacan el producto para su comercialización, para que posteriormente se aplique un análisis a nivel descriptivo que concluya en la problemática del empaque, embarque y las estrategias para conseguir una mejor competitividad de todos los involucrados en el sistema. 4. ESTUDIO DE CAMPO Al realizar el estudio de campo en las comunidades agrícolas de Tlahualilo, Durango y Matamoros, Coahuila se pudo observar que en ellos se utilizan el mismo procedimiento de operaciones logísticas de cosecha y post Cosecha para el melón cantaloupe, el cual se muestra en la Fig.. Fuente: Elaboración propia. Imagen. Melón no apto para recolección Fig. Operaciones post cosecha del melón cataloupe. Fuente: Elaboración propia. La recolección del melón se realiza el mismo día en que el producto será transportado al punto de venta al mayoreo o a alguna empacadora de la región, este proceso de recolección es ejecutado por el agricultor acompañado de tres a ocho personas aproximadamente, Fuente: Elaboración propia. El melón seleccionado y recolectado se coloca en vehículos pick up de diferentes capacidades y modelos, generalmente propiedad del agricultor. Ver imagen 3. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

212 Imagen 3. Vehículo de carga con melón recolectado Posteriormente se le hace entrega de una nota que indica el tipo de producto, el peso registrado en la báscula, el tipo de vehículo pesado, el nombre del vendedor, el nombre del comprador, las placas del vehículo y el número de folio del formato (ver imagen 6). Imagen 5. Vehículo pesado en la báscula Referencia: Elaboración propia De acuerdo a lo estipulado entre el agricultor y el cliente determinan si el melón será trasladado para su venta al menudeo, al mayoreo o a una empacadora. Como se puede ver en la Imagen 4. Fuente: Elaboración propia. Imagen 6. Nota de pesaje de vehículo Imagen 4. Tipos de venta de melón en la región lagunera. Menudeo Venta al público en general Se vende en pequeñas cantidades Su empaque es en bolsas de plástico Mayoreo Se utilizan unidades de carga tipo torton o trailer de caja seca Embarque a granel Clientes regionales y nacionales Empacado El melón se empaca en rejas y es etiquetado Se transporta en cajas refrigeradas Clientes nacionales para venta a supermercados Fuente: Elaboración propia 4. Proceso logístico del melón de primera categoría al mayoreo. Una vez que el melón ya ha sido recolectado en los campos de cultivo, se traslada al punto de reunión para su venta al mayoreo. El proceso comienza pesando el vehículo con la carga en una báscula pública, el agricultor paga por el servicio de pesaje (ver imagen 5). Fuente: Elaboración propia. Después de que el vehículo fue pesado, se introduce la unidad al área de selección y lavado del melón. Para realizar este proceso, el equipo de trabajo se compone de alrededor de diez personas La primera clasificación del melón se realiza tomando pieza por pieza directamente del vehículo, estas piezas son analizadas manualmente por empleados capacitados (ver imagen 7). El melón de primera categoría, es decir, aquel que cumple con los requisitos de calidad, tamaño, color, consistencia, textura y madurez, es vertido de manera directa a una tolva que contiene agua, con el objetivo de eliminar la suciedad adherida como tierra, insectos y residuos superficiales de plaguicidas. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 03

213 Imagen 7. Primera clasificación del melón inmersión, lavado, aspersión y secado que el melón de primera categoría. Imagen 9. Melón con quemadura de sol y ligeras heridas. Fuente: Elaboración propia. Es necesaria la adición de algún desinfectante o fungicida. El tamaño de cada tolva varía y tienen capacidad de entre mil y dos mil litros de agua, a cada tina se le agregan entre tres y cinco litros de cloro líquido, o bien, 300 gramos de cloro en polvo (ver imagen 8). Imagen 8. Melón vertido en agua desinfectante. Fuente: Elaboración propia. 4. Proceso logístico del melón de segunda categoría al mayoreo. 4.3 Lavado de melón Fuente: Elaboración propia La máquina de lavado se encuentra colocada de manera estratégica aproximadamente a 50 metros del lugar de donde se realiza el lavado del melón de primera categoría. Esto con el propósito de mantener un orden en la logística, evitar cuellos de botella, congestionamientos en el área y confusión entre los productos. El melón sujeto a inmersión, posteriormente es llevado a un mecanismo que funciona a base de energía eléctrica el cual se compone por una banda de rodillos giratorios que eliminan el exceso de agua desinfectante y los conduce a la sección de cepillado. Durante el cepillado giratorio se elimina el posible remanente de suciedad adherida al fruto, con la ayuda de aspersores de agua. El último paso del proceso de lavado es la transportación del melón a través de una banda de aproximadamente tres metros de largo, con el objetivo de secar la superficie del melón (ver imagen 0). Imagen 0. Proceso de lavado. El melón categorizado de segunda calidad es aquel que debe presentar las características mínimas de calidad, pudiendo presentar defectos en forma y desarrollo, quemaduras de sol o ligeras heridas cicatrizadas, ligeras grietas secas y superficiales, pero excluyéndose totalmente los frutos podridos o inapropiados para el consumo (ver imagen 9). El melón de segunda categoría es apilado a un costado de la unidad, separándolo de esta manera para su posterior proceso de comercialización. Este melón es vendido a un precio inferior. El melón de segunda categoría que resultó de la previa clasificación es colocado en vehículos pick up para que nuevamente sea pesado y pasar por el mismo proceso de Fuente: Elaboración propia 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 04

214 Al final de la banda transportadora se encuentra el personal que da un último filtro al melón, que en caso de ser una carga de melón de primera categoría, apartan el de segunda categoría y dan un acomodo al de primera dentro de la unidad asignada para su traslado hacia el proceso de conservación. La unidad cargada con melón de segunda categoría pasa al mismo proceso de conservación que el de primera. Generalmente las unidades de carga que transportan el melón son de tipo torton o tráiler de caja seca. Cabe mencionar que estas unidades son cargadas con melón de diferentes cosechas, haciendo propicia la participación de todos los agricultores de la región en el mercado. El objetivo de cubrir el melón con hielo sirve como método de conservación del producto, manteniéndolo húmedo y fresco. Al finalizar este procedimiento, se cierran de inmediato las puertas del vehículo y se realiza el amarre y el ajuste de la lona que cubre la caja del torton. La lona proporciona un hermetismo y protección al producto, manteniendo la temperatura interna, evitando el contacto con agentes externos y manteniendo su seguridad ante las condiciones meteorológicas (Ver Imagen ). Imagen. Proceso de conservación del melón. Previo a finalizar de cargar el vehículo, se colocan dos tarimas de madera al pie de las puertas de la caja, estas tarimas sirven de soporte y compactación del producto para evitar el movimiento y el deterioro del fruto durante su traslado, asimismo de evitar la caída de las piezas al momento de abrir las puertas (ver imagen ). Imagen. Carga finalizada Fuente: Elaboración propia 4.4 Proceso de conservación La unidad cargada es traslada del área de lavado a una fábrica de hielo que le proporciona el servicio de llenar el interior del torton con hielo triturado. El chofer de la unidad paga el monto correspondiente según la cantidad de hielo que usarán para cubrir la carga de melón que dependerá de las necesidades del cliente. En seguida el personal de la fábrica prepara las barras de hielo y la máquina trituradora y comienza a distribuirlo sobre el melón con una manguera de manera uniforme. Esta actividad se realiza por dos empleados de la fábrica, uno de ellos toma con una pinza las barras de hielo y las coloca en la máquina trituradora, mientras que el otro empleado sujeta la manguera y distribuye el hielo ya triturado sobre la carga. 4.5 Traslado a su destino Fuente: Elaboración propia Cuando el embarque es trasladado a su destino, pasa por varios filtros de revisión en diferentes puntos del país. Estas revisiones son del tipo militar, federal y estatal. La Secretaría de Comunicaciones y Transportes a través de la Unidad de Medicina Preventiva, se encarga de realizar exámenes médicos a operadores de transporte de competencia federal, con la finalidad de reducir el índice de accidentes ocasionados por este tipo de vehículos. La Unidad de Medicina Preventiva, implementa de manera rutinaria, operativos permanentes en puntos estratégicos del país para garantizar la aptitud y adecuado estado de salud de los choferes de transporte de carga y de otros tipos. Con apoyo de la Policía Federal, se verifica la vigencia del análisis psicofísico del conductor de dichas unidades y se le practican pruebas de toxicología, alcoholímetro, valoración médica de signos vitales y otros estudios en los principales tramos carreteros de las entidades por las que atraviesan. Asimismo, se verifica la siguiente documentación: 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 05

215 . Licencia de conducir vigente del chofer de la unidad. Carta porte 3. Remisión o factura de la carga 4. Certificado de fumigación de la unidad En ocasiones se realiza una inspección física exterior e interior de la unidad (Secretaría de Comunicaciones y Transportes, 0). Posteriormente se colocan tres duelas sujetadas con clavos en la cara superior de cada reja y se refuerza con un amarre de alambre en cada extremo. En este mismo procedimiento otra persona se encarga del etiquetado, pegando la etiqueta con engrudo en una de las cabeceras de la reja. Ver Imagen 3. Imagen 3. Melón empacado 4.6 Logística de melón empacado Una tercera forma de comercializar el melón es a través de un proceso de empacado y etiquetado, este servicio se le brinda a aquellos clientes que según sus necesidades así lo requieren. El melón empacado está enfocado principalmente para hacerlo llegar al consumidor a través de grandes cadenas comerciales y supermercados. Las ventajas de que el melón sea empacado son las siguientes:. Brindar al producto una mayor proyección y apariencia ante el consumidor.. Facilitar su manipulación en grandes cantidades. 3. Permitir una mejor organización de acomodo en los almacenes. 4. Proveer una mayor seguridad y prolongar el tiempo de vida del producto. 5. Hacer más práctico su traslado. Los productores que han optado por hacer sus envíos empacando la fruta, tienen un mejor control, pues las cajas que envían son las que se entregan y por las que se recibe el pago. El melón empacado requiere de una organización un poco más compleja, por la cantidad de personal que labora y su ubicación en las áreas de trabajo bajo un flujo establecido. Las rejas de madera que se utilizan soportan un peso aproximado de entre 40 y 45 kg donde se acomoda el melón que ha sido previamente clasificada como producto de primera categoría. Cuando el melón cosechado llega a la empacadora, una cuadrilla se encarga de bajarlo de la camioneta del productor y colocarlo en una rampa de madera que lo conduce al proceso de inmersión en agua clorada. En seguida, una banda de rodillos giratorios los lleva a la sección de cepillado y aspersión. Una vez lavados, los melones pasan a una banda transportadora donde manualmente son clasificados y de esa manera se retiran los melones de segunda categoría, los cuales son devueltos al productor. Los melones de primera categoría bajan por una rampa para ser acomodados en las rejas de madera, cada una contiene aproximadamente entre 0 y 7 melones, según el tamaño. Las rejas se colocan sobre una banda de rodillos giratorios, son marcados por un número consecutivo y de esta manera se lleva un control de rejas empacadas. Fuente: Elaboración propia Cada reja de melón es tomada y estibada en la caja del tráiler, la estiba se comprende de 5 rejas apiladas de cinco en cinco, asentadas en tablones de madera llamados estucos. Las rejas son acomodadas de manera estratégica para dar un equilibrio a la carga y de esta manera proporcionarle seguridad durante su traslado (Imagen 4). Imagen 4. Rejas de melón estibadas. Fuente: Elaboración propia. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 06

216 Cada caja de tráiler contiene 575 rejas aproximadamente. Una vez cargada la unidad, se traslada a la fábrica de hielo para aplicar el método de conservación que consiste en distribuir el hielo triturado de manera uniforme sobre las rejas de melón. Finalmente se documenta la carga y se envía a su destino, horas más tarde durante el camino es encendido el termostato a 4 C para mantener la humedad y la frescura del producto. 5. DESARROLLO DEL SISTEMA DE CALIDAD DEL EMPAQUE Y EMBARQUE. A continuación se proponen algunas alternativas de solución a ser implementadas en el proceso de empaque y embarque del melón cantaloupe para el mejoramiento de la calidad e inocuidad del producto en la Comarca Lagunera. De esta manera fomentar la confianza del mercado nacional e internacional en la inocuidad del producto. Para el desarrollo del plan se propone que debe contar con personal capacitado en la implementación de sistemas para el aseguramiento de la calidad e inocuidad en el sector hortofrutícola. Además de apoyarse de:. Instituciones con responsabilidad en la legislación en materia de inocuidad alimentaria.. Instituciones de apoyo para la realización de análisis de laboratorio, pruebas y ensayos requeridos. 3. Instituciones con responsabilidad en programas de capacitación y extensión a los productores y demás actores de la cadena. 4. Gremios de productores y exportadores. Se debe tener la descripción del producto con la información necesaria que debe conocer el equipo de trabajo. Tabla. Descripción del producto. Descripción del producto Nombre del producto Cucumis melo Características Hortaliza fresca Uso Consumo directo Canastillas plásticas: 0 melones Cajas de cartón Empaque corrugado encerado: 7 piezas Bolsas de atmósfera controlada: individuales Instrucciones de Lote, origen, día de Empaque empaque Vida pos cosecha 5 - días Temperatura y. - 5 C, humedad de humedad 90-95% Rotación de inventarios Instrucciones para su PEPS, temperatura y distribución humedad controlada Centros de acopio y Punto de venta tiendas de autoservicio Instrucciones para el Mantener temperatura vendedor controlada Fuente: Elaboración propia También se deben evaluar los peligros de contaminación del producto por agentes de tipo microbiológico, químico y físico. La evaluación de los peligros se hará a partir de las etapas de empaque y manejo del producto, aplicando los principios de higiene correspondientes. La tabla 3, muestra las principales situaciones de riesgo encontradas en las empacadoras laguneras. Tabla 3. Situaciones de riesgo en empacadoras de la región lagunera. Análisis de los peligros en las empacadoras de la Comarca Lagunera Paso del proceso Instalaciones Personal Situación encontrada Proceso de lavado al aire libre. No son instalaciones cerradas. No se cuenta con almacén de producto empacado. Falta de señalamientos de seguridad, áreas y procesos. No tienen piso firme. No cuentan con iluminación adecuada. No existe almacén de resguardo de materiales. No se tienen instalaciones de sanitarios para el personal. Manejo de desechos inadecuado. Presencia de aves y roedores. Ingesta de bebidas alcohólicas en el área de trabajo. Peligros asociados Microbiológico. Peligros ambientales. Físico, basura, objetos extraños. Físico y microbiológico. Existe el riesgo de que el producto se contamine. Físico. Accidentes en el área. Físico y microbiológico. Físico. Afecta el rendimiento del empleado. Físico y microbiológico. La materia prima puede contaminarse. Microbiológico. Contaminación fecal. Microbiológico. Desechos orgánicos. Microbiológico. Contaminación fecal. Puede provocar accidentes, los empleados no están en óptimas condiciones. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 07

217 Proceso Sin ningún tipo de filtro sanitario. Manipulación incorrecta del producto. Falta de equipo de seguridad para el trabajador (calzado, vestimenta, faja, cofia, cubre bocas, guantes). Equipo y maquinaria rudimentarios. Falta de rotación de agua desinfectante. Fuente: Elaboración propia Contaminación física del producto. Puede ocasionar daños en el producto. Accidentes, contaminación cruzada. El sistema de producción no es eficiente. Pérdidas de tiempo y dinero. Contaminación química y microbiológica del producto. Se requiere implementar un plan de acción correctivo por parte de todos los involucrados en la cadena productiva y logística del melón que mejore las condiciones de las prácticas actuales. En la tabla 4 se mencionan las acciones que se deben tomar como medidas para el aseguramiento de la calidad e inocuidad en el empaque del melón. Tabla 4. Acciones para el aseguramiento de la calidad. Fuente: Elaboración propia 6. CONCLUSIONES Se deben implementar programas prerrequisitos que garanticen tener todos los procesos de empaque bajo control, trazabilidad y retiro, capacitación de personal, mantenimiento de equipos, higiene de personal, sanitización de empacadora, control y manejo de productos químicos, control de plagas, control de proveedores, control de desechos y la auto inspección. Un equipo experimentado debe realizar el proceso de selección y clasificación de los melones cosechados según los diferentes parámetros específicos de calidad y exigencias de los clientes. Es necesario contar con calibradores electrónicos y mecánicos que garanticen que los parámetros de peso y tamaño sean cumplidos. Los melones deben ser encerados, empacados, etiquetados y con un método de embalaje correcto y con materiales de alta calidad. Esto con el fin de alargar la vida de anaquel del producto. Una vez empacado y estibado el melón debe someterse a un sistema de enfriamiento que garantice que en el menor tiempo posible la temperatura óptima de almacenamiento sea alcanzada para el producto. Luego de enfriado, el producto se almacena en cámaras de mantenimiento para luego ser embarcados y enviados a su destino final. 7. REFERENCIAS [] SAGARPA. Anuario Estadístico de la Producción Agropecuaria 0. Superficie, Producción y Valor por cultivo. Lerdo, Durango, México. 03 [] FAO. World Agriculture Towards 030/050. The 0 Revision, ESA Working Paper No [3] SAGARPA. Programa Sectorial de Desarrollo Agropecuario, Pesquero y Alimentario Diario Oficial, pág. Cuarta Sección. 03 [4] SAGARPA. (Programa Sectorial de Desarrollo Agropecuario, Pesquero y Alimentario Diario Oficial, pág. Cuarta Sección. 03 [5] SAGARPA INIFAP. El melón: Tecnologías de Producción y Comercialización. Matamoros, Coahuila, México: Campo Experimental La Laguna. 0 [6] Secretaría de Comunicaciones y Transportes. Acciones para el fortalecimiento de la seguridad vial. México, D.F.: ISBN: Sara María Velázquez Reyes: Ingeniera Industrial por el Instituto Tecnológico de la Laguna, ITL, con estudios de Maestría en Ingeniería Industrial por la UANL y con estudios de Maestría en Educación por el Instituto Dídaxis y Doctorado en Administración Estratégica por el Instituto Internacional de Administración Estratégica. Profesora Investigadora en el ITL con más de 30 años de experiencia en licenciatura y posgrado. María Luisa Segura López: Doctorado en Biotecnología e Industrias alimentarias. Maestrías en Química y en Calidad y Productividad. Especialidad en 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 08

218 Físico química de alimentos e inocuidad alimentaria. Profesora Investigadora con más de 30 años de experiencia en licenciatura y posgrado. Benigno Landeros Arenas: Ingeniera Industrial y Maestría en Ciencias en Ingeniería Industrial por el Instituto Tecnológico de la Laguna. Integrante del Sistema Certificador de Competencia Laboral, Profesor investigador en el ITL con más de 30 años de experiencia en licenciatura y posgrado. José Enrique Sifuentes Vargas: Ingeniero Industrial y Sistemas por el ITESM, con estudios de Maestría en Administración, Profesor investigador en el ITL con más de 40 años de experiencia docente en licenciatura y posgrado. María Cristina García Carrillo: Ingeniera Industrial Química, con estudios de maestría en Ciencias Ingeniería Industrial, miembro del consejo consultivo de Desarrollo sustentable de SEMARNAT, auditor externo de Met- Mex Peñoles. Profesora investigadora en el ITL con más de 0 años de experiencia en licenciatura y posgrado. Alma Delia González Cárdenas: Ingeniera Industrial y Maestría en Ingeniería Industrial por el Instituto Tecnológico de la Laguna. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 09

219 DISEÑO DE UNA ESTACIÓN DE CONTROL PARA LA SIMULACIÓN DE PROCESOS INDUSTRIALES EN LA ESPECIALIDAD DE INSTRUMENTACIÓN INDUSTRIAL Y CONTROL DE LA CARRERA DE INGENIERÍA ELECTRÓNICA DEL ITSP Resumen El uso de prácticas de laboratorio para la enseñanza constituye una de las bases académicas fundamentales en la formación de profesionistas competentes en ingeniería. En el presente documento se describe la propuesta de diseño e implementación de una Estación de Control para la realización de Prácticas de Instrumentación mediante la simulación de procesos industriales en la especialidad de Instrumentación Industrial y Control de la carrera de Ingeniería Electrónica, del ITSP. El proceso consiste en un sistema de tanques para regulación de temperatura y nivel en un contenedor de agua. El control del proceso se realiza mediante un controlador CompactRio con una interfaz de usuario desarrollada en LabView. La estación cuenta con la estructura e instrumentación necesaria para la manipulación de temperatura, flujo y nivel. Una vez implementado se espera una mejora sustancial en la calidad académica, ofreciendo a la sociedad un recurso humano mejor capacitado, capaz de generar innovación tecnológica. MANUEL ANTONIO ARENAS MÉNDEZ manuel.arenas@itspanuco.edu.mx ROSA GABRIELA CAMERO BERRONES gabriela.camero@itspanuco.edu.mx MIGUEL DE JESÚS CABRIALES MUÑIZ cabriales_mdj@hotmail.com DAVID HERNÁNDEZ HERNÁNDEZ david-h-hernandez@hotmail.com Palabras claves Control, proceso, temperatura, flujo, nivel.. INTRODUCCIÓN En este trabajo se describe el desarrollo de una estación de control para nivel, flujo y temperatura basada en el controlador CompactRIO, con fines educativos, que les permita a los alumnos diseñar aplicaciones para controlar procesos similares a los que existen en la industria actualmente. El Laboratorio de Ingeniería Electrónica del ITSP cuenta con cinco controladores CompactRIO de la empresa National Instruments equipados con módulos de entradasalida analógicos y digitales. Las aplicaciones implementadas por los alumnos con estos controladores consistían inicialmente en prácticas de activación de leds y mini motores de CD, que por su nivel de complejidad daban como resultado un bajo aprovechamiento del potencial de los controladores CompactRIO. El prototipo presentado surgió inicialmente como un proyecto final de la materia de Instrumentación Avanzada. La puesta en marcha de este proyecto apoya a la consolidación de la acreditación ante el organismo acreditador CACEI [] para la carrera de Ingeniería Electrónica, ejerciendo un impacto favorable en la gestión del conocimiento de áreas que hasta ahora no se han desarrollado satisfactoriamente en el instituto.. MARCO TEÓRICO. Características Generales El uso de simuladores de prácticas para la enseñanza académica constituye una de las bases académicas fundamentales en la formación de profesionistas competentes en el área de ingeniería [] Los principales fabricantes y líderes en tecnología en el área de instrumentación, tales como: a) Siemens, b) Festo y c) NI, por mencionar algunos de ellos, cuentan con departamentos dedicados exclusivamente al desarrollo de tecnología enfocado al sector académico [3-5]. Estos sistemas consisten básicamente de: un panel didáctico (depósito presurizado, un juego de sensores y un juego de actuadores de nivel, presión, temperatura y flujo) y un módulo de control (que contiene los circuitos interface para los sensores y actuadores, y los circuitos de control) En la industria existen algunas aplicaciones típicas de procesos en los que es necesario un control de variables, entre las más frecuentes se puede mencionar calderas de vapor e intercambiadores de calor, procesos en los que el monitoreo y regulación de temperatura es primordial. En general casi todos los procesos industriales consideran esta variable por su influencia en los fenómenos físicos y su uso para inferir otras variables del proceso [6]. En cuanto a sistemas de control del agua de alimentación, estos son regulados a través de válvulas. Las variables que intervienen en este tipo de sistemas son nivel y caudal. La medición de nivel cobra importancia tanto 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 0

220 para el funcionamiento correcto del proceso y el balance adecuado de materias primas o productos finales. 3. METODO En este proyecto, un primer paso fue seleccionar el proceso a simular en la estación de procesos de nivel, flujo y temperatura. Una vez determinado el proceso, se procedió a establecer los lazos de control e instrumentación para las variables de nivel, flujo y se realizó un análisis de costos y características técnicas para seleccionar los sensores y actuadores necesarios para la implementación de los lazos de control. Se implementó la estructura de montaje de la estación de procesos, la etapa de instrumentación y la etapa de acondicionamiento de señal requerida por el controlador CompactRIO. Se diseñó la interface con el usuario en Labview y finalmente se procedió a la integración de etapas y pruebas de funcionamiento. 4. RESULTADOS La estación de control consiste en tres etapas: Una etapa de Instrumentación, una etapa de acondicionamiento de señal y una etapa de control 4.. MODULO DE INSTRUMENTACIÓN Un módulo de instrumentación, conformado por un sistema de cinco depósitos de agua: Un tanque cisterna para alimentar el sistema, dos tanques de recolección de agua, uno de ellos como depósito de alimentación de agua caliente y el otro como un depósito de agua fría (temperatura ambiente), un tanque mezclador y un tanque cisterna de residuos (salida). El diagrama del sistema es presentado en la Fig.. Figura. Diagrama del proceso de la estación de control Cada tanque tiene un transmisor de nivel, mientras que el monitoreo de temperatura se realiza en el depósito de agua caliente (Calentador), en el depósito de agua fría (Cisterna ) y en tanque mezclador (Proceso). El diseño se realizó para operar en un rango de temperaturas que va desde la temperatura ambiente hasta 90 o C. El tanque de suministro de agua caliente tiene tres sensores de nivel de punto fijo (alto, medio y bajo). Consta de una etapa de precalentado con una resistencia. Dentro del tanque hay tres resistencias calentadoras que son controladas por un relevador de estado sólido. El tanque- depósito frío tiene un sensor de temperatura para medir la temperatura ambiente del agua con el propósito de determinar el flujo requerido para estabilizar la temperatura de un tanque mezclador. Este tanque, que corresponde al proceso principal, cuenta con un sensor de temperatura y uno de nivel. Mediante una bomba se genera un gasto a la salida del mezclador, el cuál es enviado a un tanque denominado Residuos, que al igual que el tanque mezclador cuenta con un sensor de nivel digital. 4.. MODULO DE ACONDICIONAMIENTO DE SEÑAL El módulo de acondicionamiento de señal está conformado con las tarjetas que permiten el acoplamiento entre las señales de control y potencia para los sensores, actuadores provenientes del circuito de control. Consta de una tarjeta de entradas y salidas para el controlador CompactRio, con entradas/ salidas analógicas y entrada/ salida digital [7]. Adicionalmente, una tarjeta para el acoplamiento de señal proveniente de los sensores de flujo ubicados en cada una de las entradas (caliente- fría) y salida (gasto hacia el tanque de residuos) del tanque mezclador. La etapa de potencia para la activación de bombas se realiza mediante una señal proveniente de un optoacoplador, y se activa mediante un TRIAC. El sistema cuenta para esta función con tres microcontroladores con salida DAC de 5 bits que activan los motores de CD de las válvulas correspondientes mediante una etapa de potencia mediante puentes H. 4.. MODULO DE CONTROL Referencia: Elaboración propia Para la etapa de control se empleó un controlador industrial CompactRio de NI y se diseñó una interfaz en Labview para el monitoreo y manipulación de las variables. Dicha interfaz ofrece la opción de trabajar en modo manual o automático. En la Fig. se presenta la pantalla principal en el modo de operación manual. Figura. Interfaz con el usuario en modo Manual 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

221 Se implementó una estación de control para la simulación de un proceso industrial en la que intervienen como variables el nivel, flujo y la temperatura. Una de sus principales características es el empleo de componentes fáciles de adquirir en el mercado local. Se logró una selección cuidadosa de los sensores y actuadores para obtener una buena precisión de las lecturas de las variables de medición y control del proceso siendo asequibles económicamente. Fuente: Elaboración propia Cabe mencionar que las válvulas proporcionales a la salida del depósito frío, caliente y el tanque mezclador se activan de forma complementaria con las válvulas de retroalimentación, para evitar la sobrepresión de la bomba. En el modo manual, la apertura de las válvulas puede ser establecida por el usuario. Además de contar con indicadores de nivel y temperatura para los tanques. En el modo de operación automático, el usuario solo establece el valor deseado (set point) de temperatura en el tanque mezclador, y mediante un algoritmo de control proporcional el sistema regula el proceso. La interface en LabView permite el monitoreo de las variables involucradas en el proceso, como se muestra en la Fig. 3. Figura 3. Interfaz con el usuario en modo Automático Con este sistema, el estudiante es capaz de familiarizarse con el uso de sensores de nivel, flujo, y temperatura, estudiar las características de una bomba y realizar prácticas de control de lazo cerrado para variables físicas. Siendo este trabajo un antecedente para la implementación de una estación de control con componentes industriales. 6. REFERENCIAS [] CACEI. Marco de Referencia para la Acreditación de los programas de licenciatura (Versión 04). El Consejo de la Acreditación de la Enseñanza de la Ingeniería, 04. [] DGEST. Modelo Educativo para el Siglo XXI: Formación y desarrollo de competencias profesionales. México: Dirección General de Educación Superior Tecnológica, 0. [3] De Lorenzo Group. Catálogo de Automatización. Disponible en (último acceso: 04). [4] FESTO. Festo Learning Systems Overview. Hauppauge, NY: Festo Corporation, 0 [5] Lab Volt Systems. Instrumentation and Process Control Training System Series 353. Lab Volt, 03, p.60. [6] Antonio, Creus. Instrumentación Industrial. México: Marcombo, 00 [7] National Instruments.04. Disponible en: Manuel Arenas: Ingeniero Electrónica cuenta con diez años de experiencia docente en el área de Control e Instrumentación a nivel licenciatura. Rosa Gabriela Camero Berrones: Ingeniera Electrónica. Profesora a nivel licenciatura. Estudios de Doctorado en Tecnología Avanzada en el Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada, del IPN. Miguel de Jesús Cabriales Muñiz: Pasante de Ingeniería Electrónica, conocimientos en diseño de interfaces HMI e instrumentación. Referencia: Elaboración propia David Hernández Hernández: Pasante de Ingeniería Electrónica, conocimientos en diseño de interfaces HMI e instrumentación 5. CONCLUSIONES. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México.

222 SECCIÓN VI INGENIERÍA AMBIENTAL 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 3

223 CONTAMINANTES EN SEDIMENTOS DE CALLES DE TIJUANA, B.C Resumen Los sedimentos de calles son polvos y partículas depositadas en la superficie de una vialidad, los cuales pueden tener origen natural o antropogénico. Para evaluar la calidad de sedimentos de calles de Tijuana se colectaron muestras en diferentes zonas clasificándose por material de construcción de calle, uso de suelo y tráfico, además se tomaron muestras de suelo adyacente a las calles. Las muestras fueron analizadas para cuantificar hidrocarburos totales de petróleo (HTP) por el método Soxhlet. Las muestras se separaron en dos tamaños de partícula:<mm y <63μm. Los resultados han mostrado altas concentraciones de HTP en todos los sitios con un intervalo de mg/kg para la fracción de <mm y de mg/kg para la fracción de partículas <63μm. Todos los valores son superiores al promedio de las muestras de suelo de referencia (455mg/kg). Las concentraciones obtenidas fueron menores que las reportadas en otros estudios en diferentes partes del mundo. Palabras claves contaminación, calles, Tijuana, hidrocarburos WAKIDA KUSUNOKI FERNANDO T., Ingeniero Químico Ph..D, Maestro investigador perteneciente al SIN. Universidad Autónoma de Baja California, fwakida@uabc.edu.mx PASTRANA CORRAL MIGUEL ANGEL, Ingeniero Químico M.C maestro de la Facultad de Ciencias químicas e Ingeniería, Universidad Autónoma de Baja California, pastrana@uabc.edu.mx QUIÑONES PLAZA ANALY, Ingeniero químico Profesor nivel licenciatura Universidad Autónoma de Baja California, analy.quionez@uabc.edu.mx GRACIA FLORES ENRIQUE, Universidad Autónoma de Baja California, egarcia96@uabc.edu.mx TEMORES PEÑA JUAN, Universidad Autónoma de Baja California, juantemores@uabc.edu.mx. INTRODUCCIÓN Los problemas de contaminación ambiental y sostenibilidad ambiental han resultado en una gran cantidad de investigación sobre calidad de aire urbano, calidad de aguas subterráneas, aguas y escorrentías superficiales y calidad de suelos, sin embargo los sedimentos urbanos y el papel de éstos en el medio ambiente se han descuidado en gran medida a comparación del resto de las áreas. El inadecuado manejo de los materiales y residuos peligrosos han provocado un grave problema de contaminación en los suelos y en los cuerpos de agua alrededor del mundo. En México, la industria del petróleo ha tenido un impacto negativo en materia ambiental. Debido a la amplia gama de productos derivados del petróleo, no ha sido posible evaluar cuantitativamente la contaminación involucrada desde la fase de explotación hasta la obtención de los productos petroquímicos básicos, de aquí la importancia de cuantificar los de Hidrocarburos Totales de Petróleo presentes en los sedimentos de calles de Tijuana. Los sedimentos contaminantes depositados en calles (RDS por sus siglas en inglés) son aquellos materiales que se recolectan de las calles pavimentadas y están compuestos por polvos y partículas que se han depositado y acumulado a lo largo de las calles de una ciudad. Esta acumulación de sedimentos es provocada por medios naturales como la deposición atmosférica, suelo, plantas y hojas secas y por medios antropogénicos tales como las emisiones vehiculares, desgaste de las partes móviles de los vehículos y llantas, desgaste de frenos, materiales derivados de la construcción y pintura de la señalización de calles, en gran medida por el arrastre de polvo ocasionado principalmente por vehículos y camiones, además de polvo proveniente de áreas verdes y parques, residuos generados por la industria o sus desperdicios, por contaminantes que son suspendidos a la atmósfera y por la erosión (Forcada et al., 996; Brisa et al., 999; Amato et al., 00; Bovea et al., 00; Hong y Zhaojie, 00). La fracción más fina de los polvos de calle es muy fácilmente re-suspendida por el tráfico o por el viento y pueden también ser transportados a los cuerpos de agua mediante escurrimientos pluviales, ya que se ha comprobado que los sedimentos y polvos depositados en calles pueden ser una fuente considerable de contaminantes a cualquier cuerpo de agua, los cuales corren un gran riesgo de verse contaminados si los sedimentos depositados en calles y avenidas no son removidos (Walker y Wong, 999; Kang et al, 009). En la ciudad de Tijuana, las calles no son barridas con regularidad, especialmente las calles y avenidas habitacionales por las que rara vez pasan máquinas 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 4

224 barredoras y por tanto es muy común observar la acumulación de sedimentos sobre las calles. En diversos estudios se han encontrado altas concentraciones de contaminantes en estos sedimentos, de ahí surge la importancia de estudiarlos y de cuantificar algunos de los contaminantes presentes en ellos, en este caso hidrocarburos totales de petróleo, encontrar su procedencia y proponer alternativas de solución dentro del alcance del estudio.. METODOLOGÍA El estudio se realizó en la zona urbana de la ciudad de Tijuana. Se eligieron 30 sitios para muestreo, de ellos con concreto como material de construcción y 9 de asfalto. El muestreo de los sedimentos depositados en calle se llevó a cabo mediante el barrido de aproximadamente un metro cuadrado. Las muestras se recolectaron utilizando una escoba y un recogedor de plástico y se depositaron en bolsas de cierre hermético con sus respectivas etiquetas; posteriormente se colocaron en una bolsa de color oscuro y se llevaron al laboratorio. Las muestras de sedimento de calle se tomaron aproximadamente a un metro de la calle, con un peso aproximado de 500 g. Las muestras fueron hom*ogenizadas y tamizadas a dos tamaños de partícula: < mm y < 63μm y se cuantificó la fracción pesada de los HTP, con base a la norma NMX-AA-34-SCFI-006 la cual consiste en una extracción de HTP mediante el método Soxhlet, el cual consiste en hacer pasar las muestras por reflujo con n-hexano durante 4 horas. La cuantificación de los HTP se hizo por gravimetría. fueron de 487 mg/kg para asfalto y 305 mg/kg para concreto, mientras que para la fracción de < 63 µm fueron de 899 mg/kg para asfalto y de 404 mg/kg para concreto. La media de concentración de HTP en tamaño de partículas < mm para los sitios de alto tráfico fue de 4354 mg/kg, mientras que para los de bajo tráfico es 405 mg/kg. Para el tamaño de partícula < 63µm la media de concentración de HTP es de 6040 mg/kg para alto tráfico y 7530 mg/kg para bajo tráfico. El 7% ( sitios) de las muestras de mm y 90% (6 sitios) de las muestras de 63µm rebasan los límites permisibles en la NOM-38-SEMARNAT/SSA-0, que es de 3000 mg/kg. Todos los valores de concentración de HTP son superiores al promedio de las muestras de suelo de referencia (455 mg/kg) 4. CONCLUSIONES Las concentraciones de HTP más elevadas fueron encontradas en los sitios que tienen asfalto como material de construcción tanto para la fracción de < mm como para la fracción de < 63 µm. El promedio de concentración más alto se presentó en las muestras de tamaño de partícula < 63 µm, sin embargo únicamente alrededor del 7% del total de la muestra pertenece a esta fracción. En cuanto a la intensidad de tráfico, no se encontró relación alguna entre éste y la concentración de HTP. Según la NOM-38-SEMARNAT/SSA-0, el límite máximo permisible de HTP en suelos es de 3000 mg/kg, y debido a las altas concentraciones presentadas en las muestras, estos sedimentos deberían ser tratados de manera distinta a la actual y ser dispuestos como RP. Las características de los sitios analizados se muestran en la Tabla y. Tabla. Características de sitios seleccionados Fuente: elaboración propia a partir de (Walker y Wong, 999; Kang et al, 009) 3. RESULTADOS Y DISCUSIÓN Los resultados han mostrado altas concentraciones de HTP en todos los sitios con un intervalo de mg/kg para la fracción de <mm con una media de concentración de 408 mg/kg y de mg/kg para la fracción de partículas <63μm con una media de concentración de 6759 mg/kg. Las medias de concentración de HTP para la fracción de < mm 5. REFERENCIAS [] Amato, F. Q.; Johansson, C., Nagl, C.; Alastuey, A. (00). A review on the effectiveness of street sweeping, washing and dust suppressants as urban PM control methods. Science Total Environment, 408: [] Bovea, M.; Ibáñez, V.; Gallardo, A.; Colomer, F. (00). Environmental assessment of alternative municipal solid waste management strategies. A Spanish case study. Waste Management, 30: [3] Brisa, et al., (999). A street deposit sampling method for metal and hydrocarbon contamination assessment. Science of the Total Environment, 35: 0. [4] Forcada, R. M.; Gavete, M., Jerez, P.; Marcos, V.; Martínez, A.J.; Ribot, F. (996). La Enciclopedia del Medio Ambiente Urbano. Cerro Alto Editorial. Idea, Signo y Color, S.L. [5] Kang, J.-H.; Debats, S.R.; Strenstrom, M.K. (009). Storm-water management using street sweeping. Environmental Engineering, 35: [6] Walker, T.A.; Wong, T.H. (999). Effectiveness of Street Sweeping for Stormwater Pollution Control Techinical Report 99/8, pp Cooperative Research Centre for Catchment Hydrology, NSW, Australia. 8 al 0 de febrero 05. Facultad de Ciencias Químicas e Ingeniería. UABC. Copyright 05. Tijuana, Baja California, México. 5

Mostrar más

EDITOR EN JEFE Dr. Juan Andrés López Barreras Facultad de Ciencias Químicas e Ingeniería Universidad Autónoma de Baja California COMITE EDITORIAL - PDF Descargar libre (2024)

References

Top Articles
Latest Posts
Article information

Author: Rueben Jacobs

Last Updated:

Views: 6524

Rating: 4.7 / 5 (57 voted)

Reviews: 80% of readers found this page helpful

Author information

Name: Rueben Jacobs

Birthday: 1999-03-14

Address: 951 Caterina Walk, Schambergerside, CA 67667-0896

Phone: +6881806848632

Job: Internal Education Planner

Hobby: Candle making, Cabaret, Poi, Gambling, Rock climbing, Wood carving, Computer programming

Introduction: My name is Rueben Jacobs, I am a cooperative, beautiful, kind, comfortable, glamorous, open, magnificent person who loves writing and wants to share my knowledge and understanding with you.