Tesis de Postgrado Acceso Interno
Permanent URI for this collectionhttp://138.197.15.165:4000/handle/123456789/18961
Browse
Recent Submissions
Thesis Estudio de transiciones espurias inerciales y su contribución a la potencia dinámica para el desarrollo de técnicas de estimación de potencia en herramientas de diseño de circuitos CMOS(Universidad Técnica Federico Santa María, 2024-07) Villegas Fernández, Benjamín Gustavo; Universidad Técnica Federico Santa María. Departamento de Electrónica; Vourkas, IoannisLa potencia es una de las principales métricas a tomar en consideración en el diseño de circuitos CMOS (Complementary Metal Oxide Semiconductor). Debido a esto, es fundamental ser capaz de estimarla de formar precisa en etapas tempranas del diseño. Actualmente, las herramientas EDA (Electronic Design Automation), son capaces de estimar el consumo de potencia estático con bastante precisión, pero presentan mayores dificultades para estimar la potencia dinámica consumida en etapas tempranas del diseño, a nivel de compuertas. Esto se debe principalmente a la existencia de transiciones espurias, o glitches, que no se pueden modelar correctamente con la información disponible en simulaciones lógicas. En este trabajo, se estudia la generación de glitches en múltiples compuertas lógicas de la biblioteca de celdas SAED32 (Synopsys Armenia Educational Department 32nm Generic Library) y la energía que estos consumen, con tal de comprender de mejor manera su comportamiento y proponer mejoras en las técnicas actuales de estimación de potencia frente a la presencia de glitches. Para ello, se realizan simulaciones en SPICE (Simulation Program with Integrated Circuit Emphasis) de estas celdas, con retardos entre sus entradas de tal forma que se generen glitches en la salida de la celda. A partir de estas simulaciones, se obtiene que la energía consumida por un glitch aumenta en conjunto con su ancho, hasta llegar a un ancho de pulso donde se mantiene estable, en un valor igual a la energía consumida por una transición de subida y bajada completas. Los resultados de simulación demuestran que existen múltiples posibilidades de mejora en los métodos de estimación actuales, donde se observa que utilizar un solo umbral de ancho de pulso para el filtrado de glitches y otro para la clasificación de glitches inerciales no es suficiente, ya que el valor ideal de estos varía según la celda y su entorno local. Además, se estudia la forma de la función de relación entre ancho de pulso y energía consumida, donde se obtiene que el escalado que ofrecen herramientas de estimación de la industria, como PrimePower, no es una buena aproximación, y se proponen otras funciones que podrían usarse en su lugar. Finalmente, se propone un método de clasificación y filtrado de glitches inerciales basándose en las mejoras mencionadas, definiendo umbrales de ancho de pulso según el tipo de celda, el patrón de entradas, el tiempo de transición de las señales de entrada y la carga de salida. Estos umbrales se calculan utilizando tablas de búsqueda con valores tales que se clasifica un glitch como inercial cuando su energía es menor al 95% de la de un pulso normal, y se filtra cuando su energía es menor al 10 %. Este método se prueba en 3 circuitos pequeños y se compara con otros métodos propuestos en la literatura, o utilizados comúnmente en la industria, obteniendo mejoras no tan marcadas, pero que demuestran el potencial del método.Thesis Desarrollo de algoritmos de síntesis lógica aplicados en topologías de memorias resistivas computacionales ReRAM(Universidad Técnica Federico Santa María, 2022-09) Fernández Hernández, Carlos; Universidad Técnica Federico Santa María. Departamento de Electrónica; Vourkas, IoannisEn la actualidad los sistemas computacionales ven cada vez más difícil la posibilidad de aumentar el desempeño y eficiencia energética. Lo anterior se puede relacionar a la imposibilidad de seguir con la miniaturización de los transistores, componentes básicos de cualquier sistema computacional, producto de que se están alcanzando límites físicos imposibles de sortear. De esta forma eventualmente los beneficios obtenidos de aumentar la concentración de transistores en una misma área se ven atenuados por los costos y/o nuevas problemáticas como, por ejemplo, las corrientes de fuga que aumentan el consumo de potencia. Por otro lado, las arquitecturas convencionales con las que se construyen estos sistemas tienen la característica de separar la memoria y la unidad de procesamiento de datos (CPU), lo que sumado a un dispar crecimiento de la capacidad de almacenamiento y la tasa de transferencia de datos ha producido un efecto de cuello de botella que limita el rendimiento de las CPU. elementos en una sola estructura. Para enfrentar estos problemas se han propuesto una serie de soluciones emergentes, dentro de las cuales destaca la posibilidad de realizar computación en la memoria. Esta forma de hacer computación precisamente busca eliminar cualquier tipo de transferencia entre una memoria y CPU fusionando ambos Dentro de las estructuras con capacidad de implementar computación en la memoria se encuentran las memorias resistivas o ReRAM, las cuales se componen de elementos de conmutación resistiva denominados memristors. Estos componentes fueron teorizados durante el siglo XX, pero no fue hasta 2008 cuando aquella teoría se vinculó por primera vez con observaciones experimentales en datos obtenidos de memristors reales. La principal característica de estos elementos corresponde a la de poder cambiar su resistencia a partir de la aplicación de una señal de voltaje o corriente. De esta forma se pueden utilizar los memristors como celdas de memoria, en las los datos almacenados están codificados en el valor de resistencia de los dispositivos. Una de las ventajas del uso de esta tecnología, en comparación con tecnologías convencionales de memorias RAMyFlash, es su alta densidad de integración y la posibilidad de almacenar más de un bit de información en cada celda, de manera no volátil. En conjunto con su aplicación como memoria, se han desarrollado también mecanismos para computar compuertas lógicas utilizando estos dispositivos, permitiendo así la implementación de computación en arreglos de memoria ReRAM. De esta forma este trabajo se enfoca en dos temas principales. En primer lugar, en el diseño y simulación de una memoria ReRAM que permite implementar las operaciones propias de una memoria las cuales son la escritura y lectura de datos, así como también la computación de compuertas lógicas. Para esto se seleccionó un estilo de lógica con memristors que fuera compatible con la topología de memoria utilizada y se diseñó un circuito de control de la memoria que permitiera una implementación funcional del sistema. En segundo lugar, se desarrolla un flujo de síntesis, una herramienta fundamental que permite la computación de funciones lógicas arbitrarias sobre la memoria computacional. El objetivo de esta herramienta es la de establecer un flujo de ejecución de la función lógica a sintetizar, que se traduce en lograr la asignación de recursos de la memoria, así como también establecer los ciclos de ejecución a partir de ciertas restricciones de espacio o de latencia. Para el diseño de esta herramienta se consideran el impacto de la latencia de cómputo de las funciones lógicas a ejecutar y el área de memoria utilizada, logrando grandes mejoras considerables en comparación a otras herramientas ya existentes para computación en ReRAM. Estos ultimo también suelen presentar problemas respecto a los tiempos de síntesis, utilizando cándidas de tiempo poco realistas para aplicaciones reales (del orden de días). De esta forma el trabajo desarrollado propone una estrategia iterativa para enfrentar este problema evitando un impacto sobre la latencia de cómputo de la función a sintetizar. Finalmente, en este trabajo se utilizan memristors reales fabricados por la empresa Knowm para la implementación de un ejemplo práctico de la memoria ReRAM. Para el desarrollo de esta parte se debió estudiar circuitos alternativos a los simulados que permitieran evadir problemáticas que surgen debido a la variabilidad de los dispositivos, así como rangos de resistencia cercanos (ROFF/RON ratio de solo un orden de magnitud). Se logra implementar una fila de memoria ReRAM con sus respectivos circuitos de control y dos celdas de memoria, dentro de la cual se ejecutan las operaciones propias de una memoria computacional mostrando su funcionalidad.Thesis Stochastic string stability analysis of vehicular platoons with lossy inter vehicle communication channels(Universidad Técnica Federico Santa María, 2024-03-19) Gordon Almeida, Marco Anthony; Universidad Técnica Federico Santa María. Departamento de Electrónica; Vargas Parra, Francisco JavierThis thesis conducts a detailed investigation into string stability for platoons of vehicles with communication channels affected by random data loss. The platoon configuration under analysis comprises homogeneous linear time-invariant vehicles with predecessor-follower topology and time-headway spacing policy. Lossy communication channels are represented using Bernoulli processes. Additionally, data compensation strategies schemes are employed to mitigate the impact of missing information during data loss events. Given the stochastic nature of the system, to study the string stability property this thesis introduces the notions of Lp-mean Lq-variance string stability and mean square string stability. By examining the necessary and sufficient conditions aligned with these definitions, the analysis investigates the convergence over time and scalability aspects of the platoon. The thesis findings underscore the significant influence of data loss rate on string stability. Numerical simulations complement the theoretical insights, offering valuable perspectives on the practical implications of the proposed framework.Thesis Sostenibilidad social del patrimonio: Reconstitución y revalorización de la memoria a partir de experiencias participativas de realidad virtual inmersiva(Universidad Técnica Federico Santa María, 2023-08) Morales Cuevas, Silvana Estefanía; Universidad Técnica Federico Santa María. Departamento de Arquitectura; Carrasco Walburg, Carolina AndreaLas distintas manifestaciones sociales que ocurrieron a nivel nacional e internacional han puesto de relieve un descontento generalizado hacia los monumentos y edificios patrimoniales. Este fenómeno sugiere una desconexión entre la representatividad de estos símbolos y las comunidades que los rodean. Emergen interrogantes sobre la sostenibilidad del patrimonio a lo largo del tiempo y su rol en la identidad comunitaria. Para avanzar hacia una sostenibilidad social del patrimonio, es fundamental adoptar prácticas de equidad social, fomentar la inclusión comunitaria, adaptarse a cambios y promover la libertad de expresión. La integración de las Tecnologías de la Información y la Comunicación (TIC's) puede ser clave en este proceso. Específicamente, la Realidad Virtual (RV) emerge como una herramienta prometedora, aunque su aplicación práctica en la educación patrimonial aún existe una carencia en la descripción de los métodos a utilizar, tanto dentro de las actividades como en el análisis de los resultados, y muchas de ellas solo han quedado en un plano hipotético, ya que aún no han sido puesta a pruebas. Esta investigación propone desarrollar una estrategia metodológica de carácter exploratorio y experimental para fomentar la sostenibilidad social del patrimonio mediante experiencias participativas de RV. Se efectúa una revisión exhaustiva de métodos existentes para el diseño de experiencias de RV en contextos de reconstituciones históricas. Se analizan estudios previos que han empleado la RV, identificando elementos cruciales para su eficaz utilización y se reflexiona sobre la relevancia social del patrimonio, con especial atención al patrimonial industrial y la pérdida de conocimiento en bienes patrimoniales que se encuentran en un ciclo de obsolescencia. Se diseñan e implementan tres experiencias de RV. Las primeras son experiencias de sensibilidad emocional- sensorial, donde su estudio tiene como objetivo el poder diseñar una experiencias donde las emociones ayude a la sensación de presencia, al diseñar un experiencias en donde la memoria logre activarse y estimule la participación en los territorios. El segundo grupo son experiencias de educación patrimonial donde si análisis tiene como finalidad identificar elementos que puedan contribuir a la transmisión de conocimiento, dialogo e interacción con la herramienta. Y por último se revisa experiencias que se utilicen la RV para espacios de participación ciudadana, para poder llegar a diseñar una herramienta que active el pensamiento crítico y fomente la participación ciudadana en la gestión del patrimonio. Se descubre que la RV puede activar la memoria a través de la sensación de presencia, transmitir el patrimonio material e inmaterial y materializar elementos del imaginario colectivo. La metodología adoptada promueve una comunicación bidireccional, esclareciendo dudas sobre la historia oficial del caso estudiado. Los resultados, aunque específicos a las experiencias concretas, son prometedores y señalan la necesidad de continuar investigando para consolidar y generalizar las conclusiones. Se establece que la RV es una herramienta valiosa para recoger y transmitir conocimientos, tanto individuales como colectivos. Además, se sugiere que su aplicación puede facilitar la reconciliación y comprensión de las relaciones emocionales de las comunidades con su patrimonio. En conclusión, la incorporación de metodologías que utilizan tecnologías como la RV podría acelerar la educación patrimonial e involucrar a diversos actores en la valorización del patrimonio desde una perspectiva de sostenibilidad.Thesis Propuesta de optimización de la productividad de pabellones quirúrgicos en los Carrera Interclínica, V Región.(Universidad Técnica Federico Santa María, 2024-11) Saavedra Ojeda, Adolfo Ignacio; Universidad Técnica Federico Santa María. Departamento de Ingeniería Comercial; Mansilla Caro, PatricioLa presente tesina tiene como objetivo principal mejorar la productividad y eficiencia de los pabellones quirúrgicos de Los Carrera Interclínica mediante la aplicación de las metodologías Lean y Six Sigma, buscando reducir ineficiencias y minimizando los tiempos no productivos, optimizando así los recursos disponibles. En este documento se analiza de manera exhaustiva el proceso quirúrgico desde la admisión hasta la finalización de las cirugías, aplicando herramientas como revisión de literatura, entrevistas personalizadas, evaluación de indicadores de desempeño, Value Stream Mapping (VSM), análisis de datos históricos, entre otros. Los principales hallazgos incluyen: retrasos promedio de 49 minutos en el inicio de la primera cirugía, sobreprogramación (tiempo real utilizado en pabellones excede el tiempo planificado), tiempos de espera excesivos entre la admisión del paciente, el ingreso a unidad de médico quirúrgico y la unidad de recuperación, retrasos en la llegada del equipo médico y problemas con disponibilidad de cajas quirúrgicas11 Las , lo que afecta la productividad y la satisfacción del paciente. Para abordar las problemáticas detectadas y mejorar la productividad de los pabellones quirúrgicos, se propone implementar un plan de mejora basado en Lean y Six Sigma. Este plan tiene como objetivo reducir las ineficiencias en los tiempos de espera de los pacientes durante el proceso quirúrgico. En particular, se busca disminuir el tiempo promedio del proceso quirúrgico de 171 minutos a 129,5 minutos, lo que incrementa la eficiencia del ciclo quirúrgico del 36,84% al 46,71%. Se propone monitorear las mejoras a través de diversos indicadores de desempeño, entre ellos: la tasa de ocupación diaria del pabellón, el tiempo de retraso en la primera cirugía, la tasa de suspensión de cirugías, la tasa de utilización de pabellón, el tiempo de recambio entre cirugías y el número total de cirugías realizadas. Estos indicadores permitirán medir el impacto de las mejoras implementadas, garantizando un proceso más eficiente y contribuyendo a la calidad de la atención quirúrgica, así como a una mayor capacidad operativa y un impacto positivo en los indicadores financieros, con un incremento promedio mensual de los ingresos de aproximadamente $47.524.776, un 1,55% de aumento en el margen de explotación, un 3% de incremento en el resultado operacional y un aumento del EBITDA del 2.18%.Thesis Desarrollo de una nueva modalidad de lixiviación de ripios para continuidad operacional ante situación de liquidación en empresa minera, e implementación de operación para evitar contaminación hacia el medioambiente(Universidad Técnica Federico Santa María, 2024-05) Poblete Fernández, Lucas Fabián; Universidad Técnica Federico Santa María. Departamento de Ingeniería Comercial; Campos, Zócimo.Thesis Modificación de propiedades mecánicas de ánodos de Cu-Ni-Al con NPs-CeO2 para celdas de combustible de carbonato fundido.(Universidad Técnica Federico Santa María, 2024-08) González Pezoa, Iván Patricio; Universidad Técnica Federico Santa María. Departamento de Ingeniería Metalúrgica y de Materiales; Aguilar Ramirez, Claudio EduardoLas celdas de combustible son una aplicación basada en el uso de hidrógeno gaseoso para la producción de energía eléctrica, las cuales poseen diferentes clasificaciones según el electrolito utilizado. En este sentido, existen las celdas de combustible de carbonato fundido (MCFC por sus siglas en inglés), las cuales operan a temperaturas cercanas a 650 °C por largos tiempos (4 años o más). Entre sus componentes se encuentran los ánodos que están compuestos por aleaciones de níquel porosas. Estos ánodos se deterioran durante la operación de la celda producto de cargas generadas por la tensión superficial del gas transportado a través de los poros y del armado de los componentes, teniendo como consecuencia un escenario propicio para termofluencia lo que motiva la investigación de nuevos materiales con mejores propiedades para esta aplicación. El presente trabajo de memoria tiene como objetivo estudiar una nueva aleación Cu-47.5Ni-5Al como ánodo para celdas de carbonato fundido con adición de nanopartículas de óxido de cerio (NPs-CeO2) y obtener propiedades mejoradas en comparación a una aleación sin modificación. La aleación se fabrica a partir de aleado mecánico (AM) a partir de 2 rutas: una a partir de una solución sólida Cu-50Ni con posterior adición de aluminio y otra desde los polvos elementales de cobre, níquel y aluminio. El análisis de la microestructura resultante se realiza por medio del análisis de datos obtenidos desde difracción de rayos-X y microscoscopía electrónica de barrido. Por otro lado, a partir de análisis termodinámico se obtiene la ruta de síntesis óptima para aleación Cu-47.5Ni-5Al, la cual posteriormente es mezclada con diferentes cantidades de NPs-CeO2 (1%, 3% y 5% en peso) y consolidada, con el fin de estudiar el comportamiento mecánico de la aleación en función de la cantidad de NPs. Los materiales consolidados (Cu-47.5Ni-5Al +x% NPs-CeO2) se caracterizan y analizan en función de su microestructura, tamaño y distribución de poros utilizando microscopía y análisis digital de imágenes. Las propiedades mecánicas se analizaron mediante ensayos de compresión a diferentes temperaturas (ambiente, 200 °C, 400 °C y 650 °C), mediciones de ultrasonido y microdureza. A partir de los resultados obtenidos, se puede mencionar que la ruta de síntesis óptima es la que involucra los polvos elementales de Cu, Ni y Al como punto de partida. Esto debido a que, por medio de modelos matemáticos, se obtiene que la energía requerida para la formación de solución sólida Cu-Ni-Al es menor por medio de esta ruta en comparación con la ruta que utiliza una solución solida Cu-50Ni como polvos de partida. Con respectos a las muestras consolidadas, se puede mencionar que la porosidad generada tiende a aumentar en tamaño a medida que se agregan mayor cantidad de NPs-CeO2. Las muestras mantienen presencia de óxidos de los elementos cobre, níquel y aluminio además de la solución sólida buscada, así como presencia de cerio en las que poseen adición de NPs. Además, se presentaron dificultades en el proceso de sinterización de muestras con 5% de NPs-CeO2 observables por medio de zonas no sinterizadas. Por otro lado, se aprecia un incremento en las propiedades mecánicas estudiadas en función de la cantidad NPs-CeO2 agregadas, tanto en microdureza, como en resistencia mecánica en compresión. Además, al incrementar la temperatura la resistencia a la compresión disminuye. Por lo tanto, los resultados reflejan que el uso de NPs-CeO2 como refuerzo para la aleación tienen un efecto positivo si existe una adecuada dispersión, debido a que actúan como barrera en el proceso de sinterización y mejoran las propiedades mecánicas.Thesis Control experto-difuso de atributos en espumas de flotación medidas por procesamiento de imágenes en un circuito rougher piloto de(Universidad Técnica Federico Santa María, 2024-12) Zambrano Ríos, Benjamín Ariel; Vinnett Peralta, Luis Eduardo; Universidad Técnica Federico Santa María. Departamento de Ingeniería Química y Ambiental; Bergh Olivares, Luis GuillermoLa flotación es un proceso de alta complejidad caracterizado por relaciones no-lineales entre sus variables independientes y dependientes. La falta de modelos dinámicos fenomenológicos adecuados ha limitado su uso en el control eficiente de estos procesos. Por otro lado, el uso adecuado del control predictivo depende muy fuertemente de la calidad de la representación del proceso por un modelo dinámico simple. Los sistemas expertos, basados en lógica binaria, han sido la herramienta más empleada en el control de flotación en las últimas décadas. Sin embargo, su eficiencia se ve limitada por la falta de precisión en la descripción del estado de las variables. El uso de lógica difusa ha permitido abordar el problema de control con mayor precisión, mejorando significativamente el desempeño de los sistemas expertos. En este trabajo se llevó a cabo la implementación de un control experto basado en lógica difusa en un circuito rougher de flotación piloto. La planta opera de forma híbrida, adquiriendo variables operacionales en tiempo real a través de los sensores desplegados en el circuito y del procesamiento de imágenes de espuma de flotación en Matlab. El sistema está conformado por tres celdas rougher de 36 [L], en el cual se recircula una alimentación de 4,5 [L/min] de una solución acuosa de 25 [ppm] de 2-etilhexanol y sin presencia de sólidos. El objetivo es evaluar el sistema de control difuso de los atributos de espuma de flotación, empleando como recursos las referencias de los controladores PID disponibles para la velocidad superficial de gas y los niveles de pulpa en cada celda. Inicialmente, se realizó la calibración de la instrumentación (sensores, válvulas, bomba peristáltica y cámaras) del circuito; el desarrollo de la interfaz de monitoreo y control, y su conexión con el PLC y el hardware disponible en la sala de control; así como también el acondicionamiento de los códigos de procesamiento de imágenes disponibles para su aplicación en el circuito. Posteriormente, se llevó a cabo la fase de experimentación, la cual consistió en dos etapas. La primera etapa se enfocó en la recopilación de la información concerniente al comportamiento de los atributos de espuma de flotación, tales como área transversal, excentricidad y densidad de burbujas, bajo condiciones de velocidad superficial de gas de 0,5 a 1,5 [cm/s] y profundidades de espuma entre 1 y 4 [cm]. ARQUITECTURAThesis A Constraint programming approach for the preference tourist trip design problem(Universidad Técnica Federico Santa María, 2024-03) Riff Carrasco, Stephanie Karime; Universidad Técnica Federico Santa María. Departamento de Informática; Castro Valdebenito, CarlosEn la actualidad, los turistas buscan optimizar su tiempo a la hora de planificar un viaje a otro país para conocer atracciones y lugares que concuerden con sus gustos y preferencias. Entre estas preferencias, se encuentra el turismo lento o pausado, que implica considerar lugares cercanos, menos populares y con una idea de turismo consciente y con más holgura de tiempo. La programación lineal se ha utilizado en algunos estudios para resolver problemas de optimización de rutas turísticas, pero su uso es limitado debido a la complejidad de las restricciones en estos problemas. En contraste, la programación con restricciones puede manejar restricciones complejas de manera más natural, lo que permite una mejor modelización de las restricciones y una solución más eficiente del problema. En esta tesis, se aborda esta problemática mediante la utilización de técnicas de programación con restricciones para la optimización de rutas turísticas. La programación con restricciones se ha demostrado como una técnica efectiva para resolver problemas de optimización de rutas turísticas debido a su capacidad para modelar de manera natural restricciones complejas y conflictos en las soluciones. Los resultados obtenidos en esta tesis demuestran que la programación con restricciones mediante técnicas completas proporciona mejores resultados en comparación con la programación lineal. En particular, la técnica propuesta alcanzó la solución óptima para el 70% de las instancias probadas, superando los resultados obtenidos por estudios del estado del arte y destacándose su eficiencia en tiempo de ejecución. En resumen, se concluye que la programación con restricciones es una técnica más efectiva y eficiente que la programación lineal en la optimización de rutas turísticas debido a su capacidad para modelar de manera natural restricciones complejas y conflictos en las soluciones.Thesis Neutrino portal for vector dark matter(Universidad Técnica Federico Santa María, 2025-01) Solar Peñailillo, Pablo Nicolás; Neill.Nicolás; Universidad Técnica Federico Santa María. Departamento de Física; Zerwekh Arroyo, Alfonso RaulIn the Fermion Portal Vector Dark Matter (FPVDM) framework, we study how to connect the standard model with dark matter through neutrinos. In this framework the standard model is expanded with a SU(2)D × U(1)g Y D dark sector, where the SU(2)D gauge bosons are the dark matter candidates (specifically the V } components), this symmetry is broken by a dark scalar ΦD, giving mass to the gauge bosons and leaving a remanent Z2 symmetry that ensures the stability of the candidate. The interaction with the standard model is done through VL-fermions that couple to neutrinos through a Yukawa-like term. We consider two models, with one and two families of VL-fermions, for which we analyze the phenomenology using restrictions, relic density, and direct and indirect detection of dark matter.Thesis Análisis del reconocimiento laboral en una institución de educación superior a través de la metodología del design thinking(Universidad Técnica Federico Santa María, 2024-09-04) Riesco Bade, Francisca Helena; Universidad Técnica Federico Santa María. Departamento de Ingeniería Comercial; Lagos Peralta, FranciscoEn una institución de educación superior, donde los colaboradores señalan que no hay reconocimiento laboral, aun cuando se presentan diversos beneficios, éstos no van directamente a la labor que ellos realizan. Existen instancias donde se les puede capacitar, pero deben pasar por procesos largos y que no siempre tienen resultados positivos. A través de la metodología del Design Thinking, específicamente de las herramientas que se utilizan en las fases que componen esta metodología, se determinó que el 87% de los colaboradores, luego de haber realizado focus group y encuesta, apoya las propuestas que buscan reconocer la labor que realizan. Las propuestas sugeridas dan valor a: informe de visibilidad de trabajo y programación, panel de logros, oportunidades de desarrollo, entre otros. Es fundamental contar con colaboradores comprometidos con la institución y a través del reconocimiento laboral, se potenciarán la motivación, la mejoras en el ambiente laboral, el compromiso para con la institución, y con ello, se impulsará la productividad y el cumplimiento de los objetivos estratégicos. En consecuencia, esta tesina busca acercar metodologías actuales e innovadoras a instituciones de educación superior, llevándolas a centrarse en el plano de las personas para generar ambientes sanos y productivos.Thesis Estudio de Transiciones Espurias Inerciales y su Contribución a la Potencia Dinámica para el Desarrollo de Técnicas de Estimación de Potencia en Herramientas de Diseño de Circuitos CMOS(Universidad Técnica Federico Santa María, 2024-07) Villegas Fernández, Benjamín Gustavo; Universidad Técnica Federico Santa María. Departamento de Electrónica; Vourkas, IoannisLa potencia es una de las principales métricas a tomar en consideración en el diseño de circuitos CMOS (Complementary Metal Oxide Semiconductor). Debido a esto, es fundamental ser capaz de estimarla de formar precisa en etapas tempranas del diseño. Actualmente, las herramientas EDA (Electronic Design Automation), son capaces de estimar el consumo de potencia estático con bastante precisión, pero presentan mayores dificultades para estimar la potencia dinámica consumida en etapas tempranas del diseño, a nivel de compuertas. Esto se debe principalmente a la existencia de transiciones espurias, o glitches, que no se pueden modelar correctamente con la información disponible en simulaciones lógicas. En este trabajo, se estudia la generación de glitches en múltiples compuertas lógicas de la biblioteca de celdas SAED32 (Synopsys Armenia Educational Department 32nm Generic Library) y la energía que estos consumen, con tal de comprender de mejor manera su comportamiento y proponer mejoras en las técnicas actuales de estimación de potencia frente a la presencia de glitches. Para ello, se realizan simulaciones en SPICE (Simulation Program with Integrated Circuit Emphasis) de estas celdas, con retardos entre sus entradas de tal forma que se generen glitches en la salida de la celda. A partir de estas simulaciones, se obtiene que la energía consumida por un glitch aumenta en conjunto con su ancho, hasta llegar a un ancho de pulso donde se mantiene estable, en un valor igual a la energía consumida por una transición de subida y bajada completas. Los resultados de simulación demuestran que existen múltiples posibilidades de mejora en los métodos de estimación actuales, donde se observa que utilizar un solo umbral de ancho de pulso para el filtrado de glitches y otro para la clasificación de glitches inerciales no es suficiente, ya que el valor ideal de estos varía según la celda y su entorno local. Además, se estudia la forma de la función de relación entre ancho de pulso y energía consumida, donde se obtiene que el escalado que ofrecen herramientas de estimación de la industria, como PrimePower, no es una buena aproximación, y se proponen otras funciones que podrían usarse en su lugar. Finalmente, se propone un método de clasificación y filtrado de glitches inerciales basándose en las mejoras mencionadas, definiendo umbrales de ancho de pulso según el tipo de celda, el patrón de entradas, el tiempo de transición de las señales de entrada y la carga de salida. Estos umbrales se calculan utilizando tablas de búsqueda con valores tales que se clasifica un glitch como inercial cuando su energía es menor al 95% de la de un pulso normal, y se filtra cuando su energía es menor al 10 %. Este método se prueba en 3 circuitos pequeños y se compara con otros métodos propuestos en la literatura, o utilizados comúnmente en la industria, obteniendo mejoras no tan marcadas, pero que demuestran el potencial del método.Thesis Evolutionary wrapper algorithm for attack detection(Universidad Técnica Federico Santa María, 2023) Maldonado Carmona, Javier Alexis; Universidad Técnica Federico Santa María. Departamento de Informática; Riff Rojas, Maria CristinaThis thesis presents a new evolutionary algorithm developed for selecting important features in cybersecurity, particularly for identifying and categorizing cyberattacks using decision tree-based models. It tackles common problems in intrusion detection systems (IDS) such as unbalanced data, unnecessary features, and the shortcomings of current methods, aiming to make classification models more efficient and effective. The algorithm is specifically designed for cybersecurity data, and it successfully reduces the number of features needed while also improving the quality of the classification. A key aspect of this research is the introduction of a new component in the algorithm that focuses on the most informative features, using insights from random forest classifiers. This results in models that are more capable of dealing with a wide range of complex cybersecurity threats. The algorithm excels in managing large amounts of data and exploring multiple solutions simultaneously. It can create various optimal models tailored to different IDS needs. Tests using standard datasets like NSL-KDD and CICIDS2017 show that the algorithm is versatile and effective in various data scenarios. The thesis concludes with ideas for future work, highlighting the potential of this evolutionary algorithm for wider use in cybersecurity. This includes adapting it to new threats and combining it with automated incident response systems. Overall, this research greatly contributes to both the theory and practice of selecting features for attack detection and classification, and it offers new opportunities for improving IDS in a constantly changing digital environment.Thesis Homologación documental del área de físico-química de los laboratorios de análisis de agua biodiversa en base a la Norma ISO17025(Universidad Técnica Federico Santa María, 2024) Nieto Silva, Kevin Darío; Universidad Técnica Federico Santa María. Departamento de Química y Medio Ambiente; Zazopulos Garay, Miguel AngelEl trabajo tiene como objetivo la homologación documental de los procedimientos y registros de análisis asociados, pertenecientes las sucursales de Biodiversa ubicadas en Viña del Mar, La Serena y Concepción en el área Físico – Química basándose en el cumplimiento de la norma ISO17025, los análisis considerados dentro del proceso son: análisis de color, olor y sabor, DBO y DQO, registro de verificación de termómetros y verificación diaria de balanzas. Con el fin de optimizar el orden y control de los documentos asociados a los análisis incluidos, se realiza un estudio de los requerimientos documentales aplicables en la norma ISO17025, recurriendo posteriormente a las normativas aplicables a los análisis que ejecutados en el laboratorio de análisis de agua Biodiversa. Se consulta el Manual de Aguas para Laboratorios de la Superintendencia de Servicios Sanitarios (SISS) 2024 y en las Normativas Chilenas para aguas residuales, las cuales establecen el proceso estándar para la correcta realización del análisis, y definen controles de calidad debe incluirse obligatoriamente en los registros de análisis homologados. Se solicita semanalmente a los supervisores de área reuniones para exponer la documentación utilizada en cada sucursal, se realizar observaciones según las normativas mencionadas y considerar observaciones de auditorías .pasadas (ANEXO E). Se registra en el trabajo el procedimiento de homologación, las observaciones encontradas en cada registro. Se concluye que, al analizar los registros involucrados, ninguno supera el 70% del cumplimiento de los requerimientos documentales en base a la norma ISO17025, a pesar de que todos los laboratorios están acreditados bajo esta norma. Sin embargo, con la retroalimentación de los supervisores, analistas y el departamento de calidad se logra homologar todos los registros participantes al 100% del cumplimiento.Thesis Mejoramiento de la gestión de datos para la optimización de procesos en minería(Universidad Técnica Federico Santa María, 2024-03) Díaz Vásquez, Tania Karina; Universidad Técnica Federico Santa María. Departamento de Ingeniería Comercial; Lagos Peralta, Francisco.Thesis Diseño de Sistema de Clasificación de Imágenes Basado en Computación Hiperdimensional y en Emuladores Digitales de Memristors.(Universidad Técnica Federico Santa María, 2024-08) Pizarro Aguirre, Kevin Jordán; Universidad Técnica Federico Santa María. Departamento de Electrónica; Vourkas, IoannisLa realización de los cálculos exhaustivos, utilizados en los sistemas que implementan algoritmos de inteligencia artificial, continuamente requieren de una creciente cantidad de energía. A su vez, debido a limitaciones físicas, se hace imposible disminuir aún más el tamaño de los transistores, aquel elemento electrónico que ha permitido grandes avances desde hace décadas. Es por ello que, en la última década, ha surgido la necesidad de soluciones alternativas, diseñar circuitos integrados y sistemas electrónicos especializados. Bajo este escenario, la utilización de tecnologías emergentes, dispositivos y sistemas, son cada vez más atractivas. En ellas se busca principalmente la disminución del consumo energético y el uso de área en los circuitos integrados. En esta dirección, en esta Tesis se propone el diseño de un sistema digital para la clasificación de imágenes, cuya arquitectura se basa en el paradigma de computación hiperdimensional. El sistema emplea conceptos de memoria asociativa utilizando emuladores digitales de dispositivos de conmutación resistiva (dispositivos memristivos, también conocidos como memristors). Dentro de los principales desafíos se encuentran el uso de recursos de memoria inherentes al paradigma, además de los tiempos de entrenamiento y de predicción relacionados al módulo de memoria asociativa. En la actualidad, se han utilizado memristors en arquitecturas basadas en computación hiperdimensional, pero su uso se ha centrado principalmente en la implementación de módulos encoders usando arreglos de barras cruzadas (crossbar). A diferencia de estas estrategias, aquí se busca explorar el impacto que puede tener al rendimiento del sistema la introducción de memorias asociativas o content-addressable memories, basadas en dispositivos memristivos, en comparación con soluciones sin memristors para tareas de clasificación de imágenes. El trabajo realizado contempla la simulación del sistema emulado en MATLAB, buscando las tendencias esperadas en el hardware, donde se evalúa el desempeño mediante métricas típicas de la clasificación de imágenes tales como la accuracy, además de métricas asociadas a algoritmos implementados y procesos del sistema, como el tiempo de ejecución de la memoria asociativa. Bajo estas métricas, se realiza la comparación entre la arquitectura propuesta y el estado del arte, buscando posteriormente una explicación a los resultados obtenidos. Las principales contribuciones de esta Tesis son: la implementación de un perceptor basado en emuladores de dispositivos de conmutación resistiva dentro del paradigma de la computación hiperdimensional, utilizado como una memoria asociativa alternativa; la exploracion de diferentes configuraciones y variaciones en el modelo del memristor para extrapolar el análisis a una potencial implementación en hardware digital; ademas, se realizan comparaciones entre la memoria asociativa propuesta y alternativas como la red neuronal de Hopfield. Esta comparación abre discusiones a cual escoger, llegando a la conclusión que depende de los recursos disponibles y requerimientos de los problemas. Por otro lado, tambien se realiza un aporte a la comunidad científica a través de la publicación de un artículo científico, en la revista indexada International Journal of Unconventional Computing (IJUC), bajo el titulo “Design and Simulation of a Hyperdimensional Computing System with Memristive Associative Memory for Image Classification”Thesis Estudio de prefactibilidad técnica y económica para crear una empresa de generación autónoma de energía eléctrica para consumo domiciliario en la provincia de Concepción por medio de paneles fotovoltaicos(Universidad Técnica Federico Santa María, 2024-12-27) Monsalves Sandoval, Luis Patricio; Universidad Técnica Federico Santa María. Departamento de Construcción y Prevención de Riesgos; Monroy Morales, SergioEste proyecto tiene como objetivo evaluar el estudio de prefactibilidad para la implementación de una empresa de generación eléctrica por medio de paneles solares para auto consumo en la región del Biobío, para lo cual se abordará la problemática desde tres puntos de vista distintos. Estos puntos de vista serán de mercado, técnico y financiero. Se realizará un estudio de mercado para establecer la existencia de una demanda no cubierta de autogeneración eléctrica por medio de una energía limpia, además, de estimar la proyección y crecimiento de la empresa en un tiempo determinado. En el estudio técnico se analizarán las variables con las cuales se definirá la inversión real para la puesta en marcha del proyecto, la locación, infraestructura necesaria, capital humano y operaciones que impliquen un gasto monetario para la puesta en marcha. Por último, el proyecto se evaluará financieramente para conocer la viabilidad de éste, desde el punto de vista económico, lo que permitirá tomar decisiones bajo una base de investigación confiable.Thesis Control experto-difuso de atributos en espumas de flotación medidas por procesamiento de imágenes en un circuito Rougher piloto(Universidad Técnica Federico Santa María, 2024-12) Zambrano Ríos, Benjamín Ariel; Vinnett Peralta, Luis Eduardo; Universidad Técnica Federico Santa María. Departamento de Ingeniería Química y Ambiental; Bergh Olivares, Luis GuillermoLa flotación es un proceso de alta complejidad caracterizado por relaciones no-lineales entre sus variables independientes y dependientes. La falta de modelos dinámicos fenomenológicos adecuados ha limitado su uso en el control eficiente de estos procesos. Por otro lado, el uso adecuado del control predictivo depende muy fuertemente de la calidad de la representación del proceso por un modelo dinámico simple. Los sistemas expertos, basados en lógica binaria, han sido la herramienta más empleada en el control de flotación en las últimas décadas. Sin embargo, su eficiencia se ve limitada por la falta de precisión en la descripción del estado de las variables. El uso de lógica difusa ha permitido abordar el problema de control con mayor precisión, mejorando significativamente el desempeño de los sistemas expertos. En este trabajo se llevó a cabo la implementación de un control experto basado en lógica difusa en un circuito rougher de flotación piloto. La planta opera de forma híbrida, adquiriendo variables operacionales en tiempo real a través de los sensores desplegados en el circuito y del procesamiento de imágenes de espuma de flotación en Matlab. El sistema está conformado por tres celdas rougher de 36 [L], en el cual se recircula una alimentación de 4,5 [L/min] de una solución acuosa de 25 [ppm] de 2-etilhexanol y sin presencia de sólidos. El objetivo es evaluar el sistema de control difuso de los atributos de espuma de flotación, empleando como recursos las referencias de los controladores PID disponibles para la velocidad superficial de gas y los niveles de pulpa en cada celda. Inicialmente, se realizó la calibración de la instrumentación (sensores, válvulas, bomba peristáltica y cámaras) del circuito; el desarrollo de la interfaz de monitoreo y control, y su conexión con el PLC y el hardware disponible en la sala de control; así como también el acondicionamiento de los códigos de procesamiento de imágenes disponibles para su aplicación en el circuito. Posteriormente, se llevó a cabo la fase de experimentación, la cual consistió en dos etapas. La primera etapa se enfocó en la recopilación de la información concerniente al comportamiento de los atributos de espuma de flotación, tales como área transversal, excentricidad y densidad de burbujas, bajo condiciones de velocidad superficial de gas de 0,5 a 1,5 [cm/s] y profundidades de espuma entre 1 y 4 [cm]. Los resultados de la primera parte de la experimentación señalan que, a medida que aumenta la velocidad superficial de gas, las burbujas tienden a aumentar su excentricidad y aumentar su tamaño, disminuyendo el número de burbujas por área. Por otro lado, un aumento en el nivel de pulpa, y por consiguiente, una disminución en el grosor de la capa de espuma, conduce a un aumento en la excentricidad y el tamaño de las burbujas, al tiempo que disminuye su número por área. Esto se debe a la coalescencia de las burbujas ascendentes y a la menor disponibilidad de espacio generado por la disminución en el grosor del colchón de espuma. Esta información permitió el establecimiento de las reglas y conjuntos difusos de entrada y de salida al sistema de control experto-difuso, y de las funciones de pertenencia, designadas como “Alto” y “Bajo” según el rango de valores definido para cada atributo y recurso. Bajo condiciones de operación específicas (tales como velocidades superficiales de gas o niveles de pulpa cercanos a los límites establecidos), se observaron desviaciones en el comportamiento de los atributos como resultado de la formación de una espuma de baja calidad (en altura y estabilidad). Esta información fue considerada para la construcción de las reglas de inferencia del controlador difuso, así como también en el desarrollo de un filtro de datos para la normalización de los valores de atributos de entrada al sistema de control. En cuanto a la segunda etapa de experimentación, se verificó el control experto-difuso de los atributos mediante la acción del controlador y aplicando el método de inferencia de Mamdani. Este acto se llevó a cabo a partir de la información de entrada, que consistió en el valor actual del atributo a controlar, la velocidad superficial de gas y el nivel de pulpa en la celda correspondiente; permitiendo la inferencia de una respuesta de salida con base en las reglas difusas y los conjuntos difusos establecidos, siendo estos últimos los valores de referencia de velocidad superficial de gas o nivel de pulpa de los controladores PID disponibles en las celdas correspondientes. Los resultados muestran que, al menos en el 70% de las experiencias, fue posible el control de los atributos de espuma mediante la manipulación de los recursos disponibles, verificándose valores de los atributos dentro de los rangos establecidos como “Alto” una vez iniciada la acción del controlador. No obstante, en algunos casos, si bien los valores reportados indicaron el control de los atributos, estos resultados estuvieron sesgados debido al procesamiento y segmentación de imágenes de baja calidad de espuma no idónea, lo cual surge como resultado de las limitaciones en el control de la altura de espuma en el circuito y de las características intrínsecas del sistema. Finalmente, se concluye que es posible implementar el control experto-difuso de los atributos a través de modificaciones en la velocidad de gas y en la profundidad de espuma. Sin embargo, este estará influenciado por varios factores: las características inherentes del sistema; las condiciones de operación, como el flujo de alimentación empleado, la ausencia de sólidos en la solución y las limitaciones en la evacuación de relaves en las celdas; la calidad de la información de entrada al sistema de control lógico difuso; la representatividad y calidad de las imágenes generadas mediante el sistema de procesamiento de imágenes; y el estado de los sensores y actuadores en el circuito.Thesis Diseño de sistema de clasificacion de imagenes basado en computacion hiperdimensional y en emuladores digitales de memristors(Universidad Técnica Federico Santa María, 2024-08) Pizarro Aguirre, Kevin Jordán; Universidad Técnica Federico Santa María. Departamento de Electrónica; Vourkas, IoannisLa realización de los cálculos exhaustivos, utilizados en los sistemas que implementan algoritmos de inteligencia artificial, continuamente requieren de una creciente cantidad de energía. A su vez, debido a limitaciones físicas, se hace imposible disminuir aún más el tamaño de los transistores, aquel elemento electrónico que ha permitido grandes avances desde hace décadas. Es por ello que, en la última década, ha surgido la necesidad de soluciones alternativas, diseñar circuitos integrados y sistemas electrónicos especializados. Bajo este escenario, la utilización de tecnologías emergentes, dispositivos y sistemas, son cada vez más atractivas. En ellas se busca principalmente la disminución del consumo energético y el uso de área en los circuitos integrados. En esta dirección, en esta Tesis se propone el diseño de un sistema digital para la clasificación de imágenes, cuya arquitectura se basa en el paradigma de computación hiperdimensional. El sistema emplea conceptos de memoria asociativa utilizando emuladores digitales de dispositivos de conmutación resistiva (dispositivos memristivos, también conocidos como memristors). Dentro de los principales desafíos se encuentran el uso de recursos de memoria inherentes al paradigma, además de los tiempos de entrenamiento y de predicción relacionados al módulo de memoria asociativa. En la actualidad, se han utilizado memristors en arquitecturas basadas en computación hiperdimensional, pero su uso se ha centrado principalmente en la implementacion de módulos encoders usando arreglos de barras cruzadas (crossbar). A diferencia de estas estrategias, aquí se busca explorar el impacto que puede tener al rendimiento del sistema la introducción de memorias asociativas o content-addressable memories, basadas en dispositivos memristivos, en comparacion con soluciones sin memristors para tareas de clasificación de imágenes. El trabajo realizado contempla la simulación del sistema emulado en MATLAB, buscando las tendencias esperadas en el hardware, donde se evalúa el desempeño mediante métricas típicas de la clasificación de imágenes tales como la accuracy, además de métricas asociadas a algoritmos implementados y procesos del sistema, como el tiempo de ejecución de la memoria asociativa. Bajo estas métricas, se realiza la comparación entre la arquitectura propuesta y el estado del arte, buscando posteriormente una explicación a los resultados obtenidos. Las principales contribuciones de esta Tesis son: la implementación de un perceptron basado en emuladores de dispositivos de conmutación resistiva dentro del paradigma de la computación hiperdimensional, utilizado como una memoria asociativa alternativa; la exploración de diferentes configuraciones y variaciones en el modelo del memristor para extrapolar el análisis a una potencial implementación en hardware digital; además, se realizan comparaciones entre la memoria asociativa propuesta y alternativas como la red neuronal de Hopfield. Esta comparación abre discusiones a cual escoger, llegando a la conclusión que depende de los recursos disponibles y requerimientos de los problemas. Por otro lado, tambien se realiza un aporte a la comunidad científica a través de la publicación de un artículo científico, en la revista indexada International Journal of Unconventional Computing (IJUC), bajo el titulo “Design and Simulation of a Hyperdimensional Computing System with Memristive Associative Memory for Image Classification”Item Estabilidad de cuerda en pelotones de vehículos utilizando control proporcional-integrativo(2022) Murillo García, Antonia Elisa; Vargas Parra, Francisco Javier (Profesor Guía); Universidad Técnica Federico Santa María. Departamento de Electrónica