Seminario PCyTI

  • -

Seminario: “Detección de suplantación de voz utilizando algoritmos basados en inteligencia artificial”

22-I

Fecha: 24 de marzo de 2022 a las 11:00 hrs
Presenta: Carlos Alberto Hernández Nava
Afiliación: Alumno del DCyTI
Asesores: Dr. Pedro Lara Velázquez y Dr. Eric Alfredo Rincón Garcí­a

Resumen:

En este proyecto se desarrolla un modelo capaz de detectar ataques de suplantación de voz. Se utilizó la base de datos del desafío ASVspoof 2017 V2, en la cual se pueden encontrar este tipo de ataques. Para llevar a cabo esta tarea, es necesario primero realizar un preprocesamiento de los audios, es decir, extraer las características del audio, entre los métodos más conocidos se encuentran MFCC, CQCC, LFCC y los espectrogramas. Se decidió utilizar los espectrogramas obtenidos de los audios como principal herramienta de análisis, para posteriormente ser utilizados en un modelo basado en CNN (Convolutional Neural Networks), el modelo obtiene sólo dos posibles resultados, genuino o falso. Los resultados indican que esta estrategia tiene un buen desempeño.


  • -

Seminario: “Comunicar y coordinar múltiples robots en misiones críticas de búsqueda y rescate”

22-I

Fecha: 17 de marzo de 2022 a las 11:30 hrs
Presenta: Magali Cortés Vázquez
Afiliación: Alumna del DCyTI
Asesores: Dr. Enrique Rodrí­guez de la Colina y Dr. Ricardo Marcelí­n Jiménez

Resumen:

Las ventajas que conlleva realizar una tarea por múltiples robots ha impulsado la investigación para resolver los retos que implica usarlos en aplicaciones tales como la búsqueda y rescate de personas. En estos casos, los robots deben interactuar entre ellos y con el ambiente, para ejecutar diversas tareas que los lleven a lograr el objetivo común de localizar personas en zonas de desastre. Para minimizar el tiempo de búsqueda y ampliar el rango de búsqueda, los robots deben coordinarse y mantenerse comunicados. Sin embargo, las características de las zonas de desastre dificultan o inhiben la comunicación de los robots degradando la coordinación de éstos, lo que motiva la investigación de esta tesis.

En esta presentación se muestran resultados de simulación y las principales conclusiones acerca del desempeño de un grupo de robots al explorar escenarios desconocidos, en donde la comunicación entre robots está limitada en función de la relación de pérdida de paquetes (PLR, packet loss ratio), usando tres estrategias de exploración basadas en el algoritmo de optimización PSO (particule swarm optimizatión).


  • -

Seminario: “Renderizado paralelo de imágenes fotorrealistas usando métodos de Ray Tracing”

22-I

Fecha: 17 de marzo de 2022 a las 11:00 hrs
Presenta: Habersheel Acevedo Atenco
Afiliación: Alumno del DCyTI
Asesora: Dra. Graciela Román Alonso

Resumen:

El renderizado de imágenes fotorrealista es un algoritmo cuyo objetivo es el de producir una imagen, a partir de una escena abstracta, cuya calidad sea tal que no se la pueda diferenciar de una fotografía verdadera. El ray tracing es uno de estos algoritmos, del cual se desprenden métodos de renderizado más particulares, que se diferencian entre sí por la forma en que llevan a cabo los pasos del ray tracing: path tracing (PT), bidirectional path tracing (BDPT), stochastic progressive photon mapping (SPPM), por mencionar algunos.

Estos métodos de Ray Tracing conllevan ciertas desventajas, por ejemplo, el tiempo de procesamiento de todos ellos resulta muy alto, por esto se han propuesto sistemas paralelos con el fin de reducir estos tiempos. Sin embargo, la distribución del trabajo dentro del sistema paralelo debe hacerse de manera adecuada, o se corre el riesgo de no aprovechar el sistema paralelo de manera eficiente. En esta plática propondremos maneras de estimar el costo del renderizado de algunos métodos de ray tracing y los resultados que estas estimaciones tienen al usar esta información dentro de un sistema paralelo multiprocesador. Estas estimaciones tienen la particularidad de usar información de los materiales dentro de la escena, así como el uso de la FFT (Fast Fourier Transform), aproximaciones que han sido poco estudiadas hasta la fecha.

Otra complicación de los métodos de Ray Tracing es que determinar los parámetros sobre los que ejecutará los cálculos para llegar a una imagen fotorrealista no se pueden determinar con facilidad. La estimación que desarrollamos, tiene la particularidad de que puede usarse también para aproximar la “calidad” de la imagen con buenos resultados. Presentaremos también resultados de aplicar esta metodología, los cuales son contrastados con métodos tradicionales (Screen Space Adaptive Ray Tracing) mostrando la eficacia de nuestra aproximación.


  • -

Seminario: “Emergencia de propiedades de las redes complejas, inducida por reglas locales de recableado”

22-I

Fecha: 10 de marzo de 2022 a las 11:30 hrs
Presenta: Magali Alexander López Chavira
Afiliación: Alumna del DCyTI
Asesor: Dr. Ricardo Marcelí­n Jiménez

Resumen:

Un sistema complejo se puede ver como un conjunto de elementos individuales que pueden interactuar entre sí siguiendo reglas locales de comportamiento. El análisis de redes complejas surge como el estudio de los distintos tipos de topologías que emergen en dichos sistemas, representándolos como grafos. Existen algunos experimentos que proponen modelar la creación de una red compleja como un proceso dinámico que parte de un grafo inicial al que se asocia con un conjunto de reglas de agregación o crecimiento sencillas que permiten llevar al grafo hasta un punto en que su estructura soporta eficientemente una serie de funciones. En este trabajo se estudia, mediante técnicas de simulación de eventos discretos, cómo los nodos de un grafo inicial utilizan la información que recolectan como insumo para un algoritmo mediante el cual deciden reconectar sus enlaces con otros nodos que consideran pueden aportarles algún beneficio. Se investigan dos reglas alternativas que pueden usarse en el algoritmo. En todos los casos, el resultado final es un grafo cuyas propiedades coinciden con las de algún tipo de red compleja.

Video del seminario:


  • -

Seminario: “Detección temprana de incendios mediante flujos de video codificados con transformada DCT”

22-I

Fecha: 10 de marzo de 2022 a las 11:00 hrs
Presenta: Gilberto Gustavo Romero Hernández
Afiliación: Alumno del DCyTI
Asesor: Dr. Luis Martí­n Rojas Cárdenas

Resumen:

El humo translucido es uno de los primeros indicios de la ocurrencia de un incendio. Diversas técnicas han sido utilizadas para detectar este tipo de siniestros. Entre ellas, la detección de incendios mediante el uso de video representa una solución alternativa con respecto a los clásicos sensores de humo basados en la detección de partículas. La detección mediante el uso de video ofrece diversas ventajas, como son: la posibilidad de detección a distancias significativamente mayores, dar información sobre la ubicación de la fuente de combustión y sobre todo se puede aplicar en espacios abiertos. La mayor parte de trabajos propuestos en este terreno se centran en la utilización de video sin compresión haciendo uso de cámaras convencionales, en muchos casos, se recurre al uso de costosos métodos de transformación de dominio. En este trabajo de investigación se ha desarrollado un algoritmo que detecta humo translucido gracias a la información contenida en el video comprimido, específicamente los coeficientes de la DCT (Discrete Cosine Transform). De esta forma se evita implementar el uso de procedimientos de transformación de dominio. Sin embargo, trabajar con este tipo de información trae como problema la falta de herramientas para efectuar, desde el dominio de la DCT, el análisis del contenido de las imágenes. Debido a esto, una parte importante del proyecto se destinó al desarrollo de herramientas para el análisis en el dominio frecuencial de ciertas propiedades de las imágenes como es la evaluación de la similitud, los cambios de contraste, la pérdida de información, etc. Es importante mencionar que existen en el dominio espacial una gran variedad de métodos desarrollados para evaluar la similitud entre imágenes como el ya conocido SSIM (Structural SIMilarity), sin embargo, estos métodos están destinados a emular el comportamiento del Sistema Visual Humano (SVH). A este respecto, no estamos interesados en cómo puede percibir el SVH la presencia de humo, sino que nos interesa evaluar los cambios de propiedades de las imágenes en presencia de humo desde una perspectiva más maquinal. El método que nosotros proponemos se basa en las herramientas desarrolladas sin que se tome en cuenta el SVH. Para dar un interés adicional a nuestro trabajo, nos propusimos lograr la detección de humo translucido con lentes de 360°, lo cual permite a una sola cámara analizar todo el entorno a su alrededor e incluso darnos información de la ubicación de fuente de combustión. Finalmente, debido al costo computacional de muchos métodos propuestos, el tamaño de las imágenes se revela como un gran problema, razón por la cual muchos de ellos solo trabajan con imágenes de pequeña talla. El método propuesto nos permite procesar imágenes de 2248×2248 pixeles distorsionadas, tanto por la lente de 360°, como por los algoritmos de compresión de la cámara.

Video del seminario:


  • -

Seminario: “Implementaciones multi-hilo de pilas y colas con semánticas relajadas”

21-O

Fecha: jueves 27 de enero de 2022 a las 11:00 hrs
Presenta: Dr. Armando Castañeda
Afiliación: Instituto de Matemáticas – UNAM

Resumen:

Por sus indudables y probados beneficios, la noción de linealizabilidad es la condición de consistencia más usada en la actualidad para identificar las implementaciones correctas de objetos concurrentes (e.g. pilas, colas, árboles, conjuntos) en sistemas multi-hilo. De forma intuitiva, una implementación linealizable da la ilusión al usuario de que las operaciones ocurren de forma secuencial, en algún orden que respeta en tiempo-real en el que ocurren las
invocaciones y respuestas a las operaciones. Desafortunadamente, se ha demostrado formalmente que para algunos tipos de objetos concurrentes, concretamente pilas y colas, toda implementación linealizable es costosa. Particularmente, cualquiera de estas implementaciones está forzada a usar costosos mecanismos de sincronización. Este resultado limita la escalabilidad de cualquier implementación para estos casos. Una forma de evitar este resultado negativo consiste en relajar la semántica de los objetos que queremos implementar. En esta plática veremos un tipo de relajación para pilas y colas que permite evitar los mencionados mecanismos de sincronización. Evaluaciones experimentales muestran que nuestras implementaciones se desempeñan bien para la solución en paralelo de algunos problemas sobre gráficas.

Semblanza:

El Dr. Armando Castañeda obtuvo el grado de Ingeniero en Sistemas Computacionales del Instituto Politécnico Nacional (IPN) en 2002, y los grados de Maestro y Doctor en Ciencias de la Computación de la Universidad Nacional Autónoma de México (UNAM) en 2007 y 2010 respectivamente. Entre 2011 y 2014, realizó estancias posdoctorales en el Institut National de Recherche en Informatique et en Automatique (INRIA) y en el Instituto Tecnológico Israelí (Technion). Actualmente es investigador de tiempo completo y definitivo del Instituto de Matemáticas de la UNAM.

Video del seminario:


  • -

Seminario: “Técnicas de reconocimiento de individuos por su voz”

21-O

Fecha: jueves 20 de enero de 2022 a las 11:00 hrs
Presenta: Dr. José Antonio Camarena Ibarrola
Afiliación: Sociedad mexicana de ciencias de la computación e inteligencia artificial

Resumen:

A diferencia de la identificación de un individuo por sus huellas dactilares o por su DNA, identificar a un individuo por su voz sigue siendo un problema abierto. Por ejemplo, si en un juicio se presenta una grabación de la voz de un individuo como prueba de su participación en un delito, el acusado se defiende alegando que no es su voz y cuando reproducen el audio para que escuchen el parecido de su voz con la grabación, el individuo asegura que es alguien imitando su voz. El problema se puede complicar de muchas maneras, por ejemplo, si la grabación es ruidosa o si hay varias personas hablando simultáneamente. Varios problemas relacionados pero diferentes han sido clasificados, hay que diferenciar la verificación de la identificación de individuos por su vez. Tanto la verificación como la identificación puede ser dependiente o independiente del texto, es decir, de las palabras pronunciadas. De estos cuatro problemas, el más sencillo de todos es la verificación dependiente del texto, y el más complicado es la identificación independiente del texto, problemas distintos, aunque relacionados pero que no hay que confundir. En esta charla se pretende compartir la experiencia que hemos obtenido luego de estudiar el estado del arte, de las ideas que hemos tenido, de los experimentos que hemos realizado, las contribuciones que hemos publicado y de las que estamos por publicar en esta área de investigación.

Semblanza:

El Dr. José Antonio Camarena Ibarrola obtuvo el grado de Ingeniero Eléctrico en la Universidad Michoacana en 1986, fue Laboratorista en el laboratorio de electrónica y profesor de asignatura en la Facultad de Ingeniería Eléctrica de la Universidad Michoacana de 1986 a 1990, obtuvo el grado de Maestro en Ciencias Computacionales en el Instituto Tecnológico de Toluca en 1996. De 1990 a 2003 fue el administrador del sistema, responsable de la base de datos, de las comunicaciones y de la operación de uno de los 18 centros regionales de cómputo que tenía el Instituto Federal Electoral. En 2008 obtuvo el Grado de Doctor en Ciencias en la Universidad Michoacana y actualmente es Profesor-Investigador Titular C y miembro del núcleo académico básico del programa de doctorado de la División de estudios de postgrado de la Facultad de Ingeniería Eléctrica de la Universidad Michoacana, es Miembro del Sistema Nacional de Investigadores (Nivel I), miembro de la sociedad mexicana de ciencias de la computación y miembro de la sociedad mexicana de inteligencia artificial. Sus líneas de investigación son:

  1. Procesamiento digital de señales de audio, con trabajos desarrollados en reconocimiento de voz, reconocimiento de individuos por su voz, firmas de audio, seguimiento de audio, monitoreo automático de anuncios publicitarios en estaciones de radio y evaluación automática de estudiantes de música.
  2. Diagnóstico automático de enfermedades, con trabajos desarrollados en detección temprana del Alzheimer a partir de encefalogramas y detección de la Ateroesclerosis a partir de imágenes de ultrasonido de la arteria carótida.
  3. Procesamiento de imágenes, con trabajos desarrollados en huellas dactilares, detección automática de vida silvestre en cámaras trampa y detección, clasificación y monitoreo de objetos en video.

Video del seminario:


  • -

Seminario: “Prevención de inundaciones basado en una red IoT de sensores con tecnología LoRa/Wifi/3G y 4G”

21-O

Fecha: jueves 13 de enero de 2022 a las 11:00 hrs
Presenta: Dr. Víctor Rangel Licea
Afiliación: Departamento de Telecomunicaciones, Facultad de Ingeniería, UNAM

Resumen:

Es este proyecto se presenta una red de sensores que fueron instalados en la cercanía de la Ciudad de Colima y Villa de Álvarez para el monitoreo de ríos en tiempo real. Con dicha información se desarrollaron modelos de predicción de inundaciones. Durante el desarrollo de este proyecto se derivaron más de 5 trabajos de investigación, desde la implementación física del sistema de sensores, modelos de predicción, estudios de señales 4G y 5G, y modelos de propagación, entre otros. La presentación, describe brevemente los diferentes trabajos realizados y se enfoca con un mayor análisis en los estudios de propagación que se realizaron para poder realizar la comunicación entre los nodos fijos y móviles de la red de sensores del proyecto EWIN.

Semblanza:

En 1996 el Dr. Víctor Rangel Licea obtuvo su título de Ingeniero en Computación en la Facultad de Ingeniería, UNAM. En 1998 recibió el grado de Maestría en Telemática, y el Doctorado en Telecomunicaciones, ambos por la Universidad de Sheffield, Reino Unido, en 1997 y 2002, respectivamente. El Dr. Rangel ha publicado 3 libros internacionales, 8 capítulos de libro y más de 50 artículos de alto impacto internacional en colaboración con Inglaterra y Alemania. Ha dirigido más de 60 tesis de licenciatura, maestría y doctorado en el área de redes celulares, redes inalámbricas y protocolos de comunicación y ha participado en proyectos internacionales para prevención de inundaciones a través de redes IoT y redes celulares, así como en la implantaciones de redes 4G y 5G con equipos definidos por software. Sus líneas de investigación se enfocan en Redes IoT, Redes Adhoc, Redes Vehiculares, Redes celulares 4G y 5G y optimización de protocolos de comunicación. En 2010 el Dr. Rangel obtuvo el premio Universidad Nacional, para Jóvenes académicos, también es miembro del Sistema Nacional de Investigadores desde 2004, y desde el año 2015 es el Jefe del Departamento de Telecomunicaciones de la Facultad de Ingeniería de la UNAM.

Video del seminario:


  • -

Seminario: “Diseño de algoritmos deterministas para problemas de optimización combinatoria”

21-O

Fecha: jueves 6 de enero de 2022 a las 11:00 hrs
Presenta: Dr. Joel Antonio Trejo Sánchez
Afiliación: CIMAT

Resumen:

La mayoría de los problemas de optimización combinatoria pertenecen a la clase de problemas NP-difícil. En esta charla se presentan un par de problemas de optimización combinatoria en gráficas. Se describe la dificultad de diseñar algoritmos, que en un tiempo razonable, nos aseguren obtener la solución óptima en estos problemas. Con el fin de solucionar dichos problemas, se presentan algunas relajaciones que permiten obtener la mejor solución en tiempo polinomial; es decir, en un tiempo razonable. Finalmente, se da un breve recorrido por los algoritmos de aproximación, los cuales permiten obtener una solución aproximada en una fracción del tiempo que requeriría obtener una solución óptima.

Semblanza:

Joel Antonio Trejo Sánchez obtuvo la licenciatura en ciencias de la computación en la Universidad Autónoma de Yucatán en 2003 y la maestría en Ingeniería con opción en Ciencias de la Computación por el Centro de Investigación y Estudios Avanzados del IPN en Guadalajara. Realizó el Doctorado en Ciencias de la Computación por el Centro de Investigación Científica y de Educación Superior de Ensenada en 2014. Su experiencia docente incluye cursos de licenciatura y posgrado en la Universidad del Caribe en Quintana Roo, la Universidad Autónoma de Yucatán y el Tecnológico Nacional de México en Mérida. Ha supervisado dos tesis de licenciatura y dos tesis de maestría. Su área de investigación incluye la teoría de la computación, los algoritmos distribuidos y los algoritmos paralelos. Su investigación ha sido financiada por el CONACYT en la convocatoria de Ciencias de Frontera. Es Miembro del Sistema Nacional de Investigadores desde el 2014.

Video del seminario:


  • -

Seminario: “Anomaly Detection as a Method for Uncovering Twitter Bots”

21-O

Fecha: jueves 16 de diciembre de 2021 a las 11:00 hrs
Presenta: Dr. Raúl Monroy Borja
Afiliación: Escuela de Ingeniería y Ciencias, Tecnológico de Monterrey, Campus Estado de México

Resumen:

Twitter is a popular online social network with hundreds of millions of users, where an important part of the accounts in this social network are not humans. Approximately 48 million Twitter accounts are managed by automated programs called bots, which represents up to 15% of all accounts. Some bots have good purposes, such as automatically posting information about news and academic papers, and even to provide help during emergencies. Nevertheless, Twitter bots have also been used for malicious purposes, such as distributing malware or influencing the perception of the public about a topic. There are existing mechanisms that allow detecting bots on Twitter automatically; however, these mechanisms rely on examples of existing bots to discern them from legitimate accounts. As the bot landscape changes, with the bot creators using more sophisticated methods to avoid detection, new mechanisms for discerning between legitimate and bot accounts are needed. In this paper, we propose to use one-class classification to enhance Twitter bot detection, as this allows detecting novel bot accounts, and requires only from examples of legitimate accounts. Our experiment results show that our proposal can consistently detect different types of bots with a performance above 0.89 measured using AUC, without requiring previous information about them.

Semblanza:

Raúl Monroy obtuvo el grado de doctor, en inteligencia artificial, por la universidad de Edimburgo, en 1998, bajo la supervisión del Prof. Alan Bundy. El Dr. Monroy ha trabajado para el Tecnológico de Monterrey, desde 1985. Es profesor investigador titular; miembro del sistema nacional de investigadores, actualmente nivel 3; miembro regular de la Academia Mexicana de Ciencias; y miembro constituyente de la Academia Mexicana de Computación. En el Tecnológico de Monterrey, es líder del grupo de investigación en modelos de aprendizaje computacional y director de los programas de posgrado en computación de la región metropolitana de la ciudad de México.

Video del seminario:


Menú de navegación:
23-I | 22-O | 22-P | 22-I | 21-O | 21-P | 21-I | 20-O | 20-P | 20-I | 19-O | 19-P | 19-I | 18-O | 18-P | 18-I | 17-O | 17-P | 17-I