Tesis de Postgrado Acceso Abierto
Permanent URI for this collectionhttp://138.197.15.165:4000/handle/123456789/2
Browse
Browsing Tesis de Postgrado Acceso Abierto by Title
Now showing 1 - 20 of 261
- Results Per Page
- Sort Options
Thesis A Two–Stage Model Predictive Control Strategy for Three–level NPC Converters based on Multistep Finite Control Set and Optimal Pulse Patterns(2023-11) González Duguet, Cristóbal Alejandro; Angulo Cárdenas, Alejandro (Profesor Guía); Universidad Técnica Federico Santa María. Departamento de Ingeniería EléctricaPower transference between energy sources and the power system must meet a long and rigorous list of technical and operational requirements. To this end, LCL filter grid–connected three–level neutral point clamped converters have become a popular configuration for medium–voltage high– power applications, such as integrating distributed energy resources. The presence of the LCL filter increases the complexity of the control system when using traditional linear control schemes, so model predictive control (MPC) strategies arise as a convenient alternative as they have proved to render excellent reference tracking together with a fast dynamic response. Nevertheless, the computational complexity of MPC strategies becomes an issue as commercial control platforms must execute the real–time calculations in some tens of microseconds. Among the possible MPC strategies available, multistep–finite–control–set (MFCS) MPC has already been proven to be a vi able option regarding computational burden. However, MFCS controllers do not generate periodic nor symmetric voltages between the phases of the system, resulting in continuous Fourier spec tra in the system’s states. This a fundamental drawback for grid–connected applications, as grid codes pose limits to the admissible amplitudes of the grid currents’ harmonic components, where the analysis over interharmonics depends on the specific application, making MFCS controllers unsuitable for this type of application. On the other hand, optimal pulse patterns (OPP) guaran tee a low and fixed switching frequency of the semiconductors while minimizing the distortion of the state variables. However, the state–of–the–art formulations for OPPs assume that the system can be modeled as a purely inductive load. Such a model would lead to suboptimal performance and would not allow adding constraints that guarantee meeting with grid codes regarding the grid currents. This work proposes integrating two optimization stages dealing with different control objectives into a single and generalized control framework. This framework was then used to develop a control strategy (OPP–MFCS) that combines the benefits of OPPs and MFCS controllers. To this end, a novel formulation for OPPs considering the model of the LCL filter was proposed, allowing the direct minimization of the total demand distortion (TDD) of the grid currents while guaranteeing that the admissible limits for the harmonic components are met. On the other hand, by formulating a novel variable–step–size prediction horizon MFCS controller, extending the time–span covered by the prediction horizon with no additional computational burden was possible. This improvement led to an enhanced controller performance regarding both transient and steady–state responses of the system. Extensive analyses of the contributions regarding OPPs, MFCS controllers, and the OPP– MFCS strategy were held. The OPP–MFCS strategy was tested through both simulation and hardware–in–the–loop experiments, showing its capability of meeting with the IEEE Std. 519– 2022 technical standard while the converter operates at a low and fixed switching frequency of the semiconductors, with periodic and symmetric voltages, fulfilling all control objectives defined.Thesis A VARIATIONAL APPROACH TO A CUMULATIVE DISTRIBUTION FUNCTION ESTIMATION PROBLEM UNDER STOCHASTIC AMBIGUITY(2022-10-30) URREA CASTILLO, FERNANDA PAZ; DERIDE SILVA, JULIO (PROFESOR(A) GUÍA); BRICEÑO ARIAS, LUIS (PROFESOR(A)CORREFERENTE); ROYSET, JOHANNES (PROFESOR(A)CORREFERENTE); Universidad Técnica Federico Santa María. Departamento de MatemáticaEn esta tesis se propone un método para el problema de estimación de funciones de distribución de probabilidad bajo ambigüedad estocástica. La ambigüedad estocástica está representada por un conjunto de incertidumbre en el que se debe encontrar la función de distribución acumulada y el método propuesto considera a las funciones de distribución acumulada como un subconjunto de una clase más grande de funciones, el espacio de las funciones semicontinuas superior. Presentamos varios resultados para introducir las propiedades topológicas del espacio y también para justificar nuestra elección del espacio. Las herramientas utilizadas para desarrollar este método se basan en la teoría del análisis variacional. En particular, trabajamos sobre el espacio de las funciones semicontinuas superior dotado de la distancia de Attouch Wets para las que se propone una aproximación y en conjunto con el uso de epi-splines (funciones polinomiales a trozos) impulsan un esquema de aproximación lineal a nuestro enfoque. Implementamos un algoritmo para el caso bivariado que nos permite calcular soluciones al problema aproximado así como también incorporar información suave y condiciones de crecimiento al modelo. Enunciamos condiciones que garantizan la convergencia de los minimizadores cercanos de la sucesión de problemas aproximados en soluciones para el problema original y entregamos una clase de funciones que satisfacen aquella condición. Probamos nuestro algoritmo a modo de prueba de concepto con dos ejemplos distintos, donde analizamos varios parámetros y también realizamos experiencias numéricas para el problema de estimación de la posición de un vehículo submarino no tripulado dadas fuentes de información ruidosas.Thesis Actualización de modelo de fragmentacion primaria en mineria de block caving(2023) Molina Alvarez, Felipe Ignacio; Nelis, Gonzalo (Profesor Guía); Castro, Raúl (Profesor Correferente); Universidad Técnica Federico Santa María. Departamento de Ingeniería Metalúrgica y de MaterialesLa minería subterránea se presenta como una solución para la extracción de yacimientos que, debido a la profundidad en que se encuentran, la minería a cielo abierto convencional ya no resulta económicamente rentable y en este sentido es que los métodos de minería subterránea se han vuelto más viables y preferidos en el tiempo. Sin embargo, debido a las condiciones de la minería actual, hay cierto grado de incerteza sobre si se pueden llegar a lograr los bajos costos y la productividad características de la minería por hundimiento (Flores, 2014). Las principales dificultades para lograr estos objetivos son yacimientos a mayores profundidades que implica mayores esfuerzos in-situ, menores leyes y rocas más duras (Paredes 2022). En este contexto, uno de los parámetros clave en la minería de Block/Panel Caving es la fragmentación primaria, la cual tiene un impacto significativo en el desempeño de todo el sistema minero. A pesar de ser un factor importante, su complejidad de ser cuantificada debido a las variables que la rigen y su ocurrencia al interior del macizo rocoso plantea desafíos adicionales. A pesar de su relevancia, actualmente existen pocos softwares o métodos que permiten estimar la fragmentación primaria y algunos de estos no están del todo validados, generando errores en la estimación de la fragmentación. Es por esto último que en este trabajo se buscará modelar la curva de fragmentación del macizo rocoso basándose en su calidad de roca, específicamente en el RMR de Laubscher incluyendo el preacondicionamiento, a través de una modificación a la matriz de reducción y los ponderadores que influyen en el stress caving efectivo propuestos por Laubscher (2000). Para mejorar la precisión en la predicción de la fragmentación primaria, se propuso una nueva matriz de reducción primaria, cambiando los ponderadores de la matriz de Laubscher y del stress caving efectivo a través de una minimización de errores de los porcentajes pasantes para los tamaños característicos d100, d80, d50 y d20 entre curvas de fragmentación primaria de distintas minas y su respectiva curva de fragmentación primaria propuesta por Laubscher para la clase de roca correspondiente. Por otro lado, para la incorporación del preacondicionamiento se modelaron curvas de fragmentación dependiendo del espaciamiento utilizado para el fracturamiento hidráulico. De esta manera, se obtuvo una nueva matriz de fragmentación primaria y se modificó el stress caving de Laubscher, permitiendo predecir con mayor precisión la fragmentación primaria del macizo rocoso según su RMR, con diferencias menores a 20 cm en la fragmentación gruesa y menores a 10 cm en la fragmentación más fina para los casos de estudio, y curvas de fragmentación empíricas basadas en datos reales de tamaños de roca preacondicionada. Finalmente, este trabajo presenta una actualización a la metodología de predicción de fragmentación primaria propuesta por Laubscher (2000) considerando ambientes mineros de caving actuales, además se presentan curvas de fragmentación primaria que sirven como guía para predecir el tamaño de la roca preacondicionada. Sin embargo, el modelo de predicción no es perfecto y puede seguir mejorando a través de futuras actualizaciones.Thesis Adaptación de fórmulas empíricas enfocadas en la generación de curvas para la evaluación temprana de tsunamis basadas en Intensidad Modificada de Mercalli.(2017) BAQUEDANO CAPRILE, JOSÉ LUIS; CATALAN MONDACA, PATRICIO ANDRES; Universidad Tecnica Federico Santa Maria UTFSM OBRAS CIVILESIn recent years, Chile has been exposed to an important number of strong earthquakes that havetriggered tsunamis of different amplitudes and extension. Notable examples include the Maule earthquake(Mw 8.8), which took place on February 27th, 2010; the Iquique earthquake (Mw 8.2), on April1st, 2014; and the Illapel earthquake (Mw 8.3), on September 16th, 2015. These events permittedthe identification of some weaknesses of the then existing Chilean Tsunami Warning System, and thecreation of an improvement strategy that has been implemented recently, which corresponds to theIntegrated System of Tsunami Predicion and Alert (SIPAT, in Spanish). Despite these improvements,there is still some uncertainty regarding to the exact area potentially affected by a tsunami immediately,and more importantly, a finite time before solutions are found. These difficulties are mainlydue to the time restraints of the way the information flows between the three entities in charge of theevaluation (ONEMI, CSN and SHOA), and the time required to process the data. Hence the necessityof a supplementary evaluation method that helps define the evacuation area.In this work, an analysis of the potential relation between the intensity of an earthquake (via theModified Mercalli Intensity, MMI) and the occurrence of a tsunami and its expected wave amplitudeis performed, taking into account the distance from the point of interest to the hypocenter and theearthquake magnitude. Thus, the objective is to test whether the Mercalli Intensity Scale can be usedas a tool to support the existing system from a technical point of view, during the period when noother technical assessment is available.First, a series of empirical formulae relating the intensity with either Peak Ground Accelerationor Peak Ground Velocity, and others that relate PGA or PGV with the parameters that define theearthquake (e.g. depth, magnitude, dip, strike, among others) are tested and calibrated. To performthis, data available from earthquakes occurred between 2011 and 2014 are used. In order to validateour scheme, additional data from 2015 earthquakes are utilized. The result is an empirical relationshipbetween MMI, hypocentral distance and earthquake magnitude.Next, to obtain the corresponding tsunami hazard, numerical simulations of a range of scenariosare performed to ensure data coverage and statistical robustness. Here, a series of points of interestlocated around nine coastal cities are considered to create city-specific charts which relate tsunamihazard with magnitude and hypocentral distance. A city-specific approach is used under the premisethat a tsunami would vary greatly in different locations, even under the same source conditions, dueto bathymetric and topographic controls.Through the completion of the aforementioned steps, an additional way to evaluate the risk of atsunami after a considerably large seismic event is available for use and, in consequence, the currentevaluation system is reinforced, improving the preparation and response times against an eventual emergency.Thesis Adapting bipedal neuro-motor policies on planned footsteps(2024-04) Rojas Sánchez, Miguel Yerón; Creeixell Fuentes, Werner Uwe (Profesor Guía); Araya López, Mauricio Alejandro (Profesor Guía); Vásconez, Juan Pablo (Profesor Correferente); Universidad Técnica Federico Santa María. Departamento de ElectrónicaThis study investigates a hierarchical reinforcement learning approach to achieve human-like walking in bipedal robots while following marked footsteps. Traditionally, state machines and model-based methods were used for this task, ensuring stability and safety but lacking natural human-like motion. Our approach utilizes a two-level architecture: a high-level policy trained specifically for following footsteps and a low level policy distilled from motion capture data to generate natural gaits. Experiments demonstrate that this hierarchical approach significantly outperforms training a single network, particularly for complex tasks on human-sized robots. The low-level network plays a crucial role, substantially reducing joint torques and speeds while achieving stable walking. However, a current limitation is the inability to follow footsteps on stairs. We observed that both general and locomotion motion capture datasets achieved similar results in following footsteps, but the locomotion dataset generated more visually natural human-like walking, especially for forward walking. Future work will aim to improve the robot’s walking robustness for navigating uneven terrains like stairs and slopes. Our findings suggest that low-level networks pre-trained on motion capture data are a viable approach for achieving human-like walking gaits in real-world, human-sized robots. This research paves the way for developing bipedal robots with efficient and natural walking capabilities. Accompanying videos1 and code2 are available online.Thesis AGUJEROS NEGROS CON PELO Y DUALIDAD ADS/CFT(2016) CHOQUE QUISPE, DAVID; ZERWEKH ARROYO, ALFONSO RAUL; Universidad Tecnica Federico Santa Maria UTFSM FISICAThesis ALGORITHMS BASED ON HEURISTICS FOR SOLVING THE TRAIN DEPARTURE MATCHING PROBLEM(2018) ROJAS RUZ, ALONDRA VALENTINA; RIFF ROJAS, MARÍA CRISTINA; Universidad Tecnica Federico Santa Maria UTFSM INFORMATICA; CASTRO VALDEBENITO, CARLOS MIGUELEl problema de asignación de salidas de trenes (DMP por sus siglas en inglés)es un problema de planificación de trenes, donde el objetivo es encontrar la mejormanera de asignar trenes a salidas programadas, sujetas a un conjunto de restriccionesrelacionadas con la gestión ferroviaria. Este es un problema que surge delrolling stock units management on railway sites problem presentado en el DesafíoROADEF/EURO 2014, el cual se suele tratar como dos sub-problemas: El DMP yun problema de planificación de rutas. En este trabajo se presenta formalmente elDMP, indicando su modelo, los estudios realizados a la fecha sobre este problema yotros problemas de gestión de trenes relacionados, para luego presentar la propuestade un algoritmo tipo GRASP (G-DMP) y un Algoritmo Evolutivo (AE-DMP)para resolver este problema y luego evaluar su desempeño por medio de diferentesexperimentos.Thesis ALGORITMO DE RECONSTRUCCIÓN PARA LA IDENTIFICACIÓN Y SEGREGACIÓN DE PARTICULASA DE ALTAS ENERGÍAS EN UN DETECTOR PRESHOWER(2017) PAVEZ SEPÚLVEDA, JUAN GUILLERMO; Universidad Tecnica Federico Santa Maria UTFSM INFORMATICALa detección de partículas es un trabajo muy importante en campos como la física dealtas energías, la medicina y la astronomía. El proceso de detección consiste en identificarlas partículas producidas en distintos fenómenos físicos, como por ejemplo, las partículasproducidas en los grandes colisionadores. El proceso de detección, sin embargo, es complicadoy depende de muchos factores. Un caso especialmente difícil es la detección de partículasmuy cercanas provenientes, por ejemplo, del decaimiento de piones neutros. Para solucionareste problema el centro Científico y Tecnológico de Valparaíso ha propuesto un detectordel tipo calorímetro preshower, diseñado especialmente para tener una alta resolución en laidentificación de partículas cercanas. La solución de este problema tiene varias aplicacionesprácticas: En los colisionadores electron-ion puede ayudar al estudio de los gluones, elmaterial que une toda la materia del universo; En la medicina nuclear puede ayudar amejorar las imágenes producidas en las tomografías por emisión de positrones, vitales en eltratamiento del cancer.Para procesar los datos producidos por el detector se utiliza un algoritmo de reconstrucción.Este algoritmo es el encargado de convertir los datos brutos en información útil de lapartícula detectada, como su posición de incidencia, su energía o su ángulo.La contribución principal de este trabajo es el diseño e implementación de un algoritmode reconstrucción completo para el detector preshower. Para esto, las diferentes opcionesde la literatura son estudiadas y nuevas soluciones son propuestas para el trabajo dereconstrucción. Además, se construye una simulación computacional del detector y seestudia, mediante simulaciones, el desempeño del algoritmo de reconstrucción. Los resultadosobtenidos muestran la capacidad del detector preshower para identificar partículas cercanas,superando otras propuestas de la literatura. Además, basándose en este análisis, se proponenposibles mejoras al detector, las cuales pueden ser implementadas en próximas iteracionesdel diseño del detector.Thesis AMÉRICA LATINA PIERDE ATRACTIVO(2017) ANDRADE HIDALGO, GERARDO CRISTOBAL; Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA COMERCIALLa mayoría de las instituciones más prestigiadas en análisis macroeconómicos auguran undescenso en la inversión extranjera para Latinoamérica 1 , este escenario vieneprofundamente ligado no solo a una coyuntura global determinada por las contracciones delas grandes economías, sino más bien por una caída persistente y fuerte en los precios de lasmateria primas de los grandes actores de la región.Resulta ser que los mercados emergentes toman fuerza nuevamente en donde gran parte delas inversiones extranjeras directas fueron hacia estos mercados, detonado también por uncambio estructural en las políticas publicas en américa latina, gran parte de los másprestigiados economistas y entidades analíticas comentan la alta incertidumbre actual de laregión, muy polarizada y sumergida en algunos países en reformas importantes, estaincertidumbre termina siendo una pieza fatal para todo inversionista que busca escenariosestables y confiables.Gran parte de los análisis serios publicados indican que américa latina se mantendrácompetitiva y pujante en la explotación de materia primas, pieza fuerte y determinante en laregión.2Finalmente podemos focalizar de manera genérica que el escenario es complejo, añadido aun contexto global con contracción generalizada, economías que crecen a ritmos muycontenidos y a una inversión extranjera directa que poco a poco pierde el atractivo en laregión.Thesis AMÉRICA LATINA SE DESACELERA A DOS VELOCIDADES.(2018) GUTIÉRREZ CORREA, CESAR ANTONIO; Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA COMERCIALLas autoridades de las economías emergentes se encuentran enfrentando un momento complejo de desaceleración del crecimiento, de condiciones externas difíciles y de alta vulnerabilidades después de más o menos una década de crecimiento sostenido. En el último año, América Latina ha experimentado niveles de desaceleración importantes en términos económicos, siguiendo con el bajo desempeño obtenido en el último tiempo. Esta situación en parte se ha visto reflejada por la caída de grandes economías regionales, las cuales han sido afectadas fuertemente por la continua caída del precio del crudo de petróleo desde el año 2014, lo que ha producido una reducción importante de las ventas por exportación y de los ingresos fiscales de los países productores de petróleo tales como Colombia, Ecuador, México y Venezuela. Así también, con la caída de los precios de las materias primas y la agricultura, se ha afectado significativamente a países exportadores como Chile, Brasil, Republica Dominicana y Perú.Esta desaceleración ha tenido su origen en distintos factores políticos, sociales y económicos que han llevado a los países de la región a reevaluar sus expectativas de crecimiento. Dentro de estos factores, los que han generado mayor impacto han tenido relación con; (i) un incremento del descontento social como resultado de las limitaciones del “estado de bienestar” en los países de la región, el cual ha estado acompañado de un fortalecimiento de la “conciencia ciudadana”; (ii) un aumento de la desconfianza tanto a nivel de la sociedad civil, como del mundo empresarial, por efecto de un incremento de la incertidumbre política y en específico, de la políticas económicas; (iii) un aumento de los niveles de corrupción política; (iv) un entorno externo menos favorable, influenciado fuertemente por la caída de los precios de las materias primas y por la disminución de la demanda entre los socios regionales.Desde el punto de la sociedad civil, la incertidumbre y el entorno macroeconómico externo menos favorable, han exacerbado el deterioro de los mercados laborales y por tanto, de los niveles de desempleo de la región. Además, el aumento de las tasas de inflación ha afectado a la renta disponible y por ende, al consumo interno. Por otro lado, desde el punto de vista empresarial, la profundización del pesimismo y la desconfianza ha afectado fuertemente los niveles de inversión.La recesión liderada por Brasil ha influenciado la percepción de crecimiento de la región, considerando que la mayoría de los países siguen creciendo, de manera moderada pero segura, y que la contracción responde a acontecimientos que se están produciendo en unos pocos países. Para América Latina y el Caribe se prevé un crecimiento a dos velocidades en la región, con un avance moderado para el 2016-17 en los países de la Alianza del Pacífico (Chile, Colombia, México y Perú), mientras que Brasil sufrirá una fuerte recesión que arrastrará a los países del Mercosur.Thesis AMÉRICA LATINA: INFLACIÓN EN TIEMPOS DE DESACELERACIÓN(2017) CARO ESCOBAR, ERWIN MILTON; FUENZALIDA O'SHEE, DARCY; Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA COMERCIALEl escenario económico mundial ha repercutido de manera especial en América Latina, elcrecimiento y la inflación son indicadores que los Bancos centrales y gobiernos de Brasil,Chile, Colombia y Perú se esfuerzan por mantenerlos a raya.Los antecedentes de bajo crecimiento sostenido hace trimestres y la inflación fuera derango meta están mermando la confianza de los inversionistas para lograr una recuperación,el fantasma de la recesión está presente pero aun no está instalada en ninguno de los paísesantes mencionados, mas bien se está viviendo un ciclo largo, que sigue a una etapaexpansiva importante como lo han sido los últimos años de explosivo consumo de China.El panorama para este último trimestre sigue la línea del bajo crecimiento, que seprolongará para el 2017, con crecimientos menores a los esperados por los gobiernos, lainflación de Chile y Perú van a mantenerse en el rango meta, y los de Brasil y Colombiaseguirán la tendencia de acercarse a sus bandas respectivamente. El panorama económicoes flojo, la recuperación llegará a paso lento, pero llegará para instalarse nuevamente enAmérica Latina.Thesis AMPLIFICACIÓN EN SUELO BLANDO EN CONCEPCIÓN(2017) BONILLA ÁLVAREZ, KAROLAY ALEJANDRA; Universidad Tecnica Federico Santa Maria UTFSM OBRAS CIVILESLos edifi cios de hormigon armado estructurados con muros y fundados sobre suelofi rme tuvieron un buen desempeño en el terremoto del Maule de 2010, sin embargo,algunos edifi cios que estaban en lugares como Concepción y Viña del Mar, donde laroca se encuentra a mas de 100 metros de profundidad, sufrieron da~nos en sus muros.Evaluaciones de edi ficios dañados en Concepcion han concluido que el da~no observadodebe haberse producido a desplazamientos laterales del orden de un 0:5% a1:0% de la altura, con fallas fragiles, estando la posible demanda de desplazamientocercana a 1:2% a 1:5% de la altura, requiriendose ductilidad para resistir el sismode manera satisfactoria.El terremoto del Maule de 2010 fue registrado por la red de la Universidad deChile (Renadic) y por el Centro Sismologico Nacional de la Universidad de Chile(CSN), los registros obtenidos son principalmente sobre suelos de relleno, existiendopocos registros sobre roca.Debido a que no existen su cientes registros del terremoto en zonas de suelosblandos y donde hubo mayor daño, en esta memoria se evalua el metodo lineal equivalenteen la ciudad de Concepcion, donde hay un registro en estas condiciones,comparando los resultados obtenidos con esta teoría unidimensional con lo registradodurante el terremoto.El metodo lineal equivalente es usado por varios autores debido a la facilidady rapidez de su aplicacion. En esta memoria se usa este metodo para obtener elmovimiento del suelo en la super ficie de un estrato de suelo blando comparando losresultados al utilizar diferentes movimientos de la roca basal, se usaron los registrosde Rapel y Valparaso, los cuales fueron obtenidos sobre afloramientos rocosos, ambos registros lejanos a la ciudad de Concepcion.Se determino que la eleccion del movimiento considerado en la roca basal afectafuertemente el movimiento generado en superfi cie, existiendo mayores diferencias enlas ordenadas en torno al periodo del suelo. Por lo tanto, para futuros estudios deampli cacion, es necesario tener estaciones en roca en zonas cercanas a suelos blandos.Por otra parte, el registro de Concepcion ha sido util para interpretar el da~noocurrido en edi ficios de hormigon armado de mediana altura construidos en esa area.En este trabajo se evalua la ampli cacion del suelo y la variacion del contenido defrecuencia durante el terremoto. Para comparar la ampli cacion que ocurre en elsuelo blando de Concepcion, se utiliza el registro de San Pedro de la Paz, donde laroca se encuentra a una profundidad entre 25 a 40 metros, y el registro de ValparasoUTFSM el cual corresponde a un afloramiento rocoso. Se comparan los espectros dedesplazamientos y los desplazamientos de techo para cada registro.Los resultados obtenidos pueden ser extrapolados a lugares donde la roca se encuentraa similar profundidad, el registro obtenido en San Pedro representa areasdonde la roca basal se encuentra a una profundidad entre 25 y 40 metros, esperandosedesplazamientos de techo del orden de 0:7% de la altura. Los resultados obtenidoscon registro de Concepcion pueden ser extrapolados a zonas donde la roca basal seencuentre a mas de 100 metros de profundidad. Se deben tomar precauciones paralimitar los desplazamientos laterales y entregar mayor ductilidad en estructurasconstruidas sobre este tipo de condiciones de suelo.Thesis ANÁLISIS DE ERROR A POSTERIORI PARA PROBLEMAS TEMPORALES MEDIANTE ESQUEMAS ESTABILIZADOS DE ELEMENTOS FINITOS(2017) CORTES SANDOVAL, ESTEBAN GERARDO; Universidad Tecnica Federico Santa Maria UTFSM MATEMATICAThesis Análisis de estabilidad en cuerda para pelotones de vehículos con canales de comunicación afectados por ruido aditivo(2023-06-19) Gordon Almeida, Marco Anthony; Vargas Parra, Francisco Javier (Profesor Guía); Universidad Técnica Federico Santa María. Departamento de ElectrónicaLa propiedad de estabilidad en cuerda de los sistemas interconectados es fundamental en las aplicaciones de pelotones de vehículos. La presente tesis está enfocada en acortar la brecha en la literatura relacionada con la noción de estabilidad en cuerda cuando los fenómenos estocásticos son una parte inherente del problema. El pelotón bajo análisis está formado por vehículos modelados como sistemas lineales, con topología de seguimiento al predecesor, cuya comunicación se lleva a cabo a través de canales afectados por ruido blanco aditivo. Las dos principales contribuciones son: (a) caracterizar la evolución de la media y la varianza del error de seguimiento de cada vehículo, obteniendo así las condiciones necesarias y suficientes que garantizan la estabilidad en cuerda en dicho escenario estocástico y (b) proponer una definición técnica que permita la evaluación analítica de la propiedad de estabilidad en cuerda. Mediante simulaciones se ilustra el comportamiento del pelotón para los casos estable e inestable en cuerda. Dada la generalidad, tanto de la definición propuesta, como de la metodología de estudio, se espera que este trabajo sirva de guía para el análisis de estabilidad en cuerda en diferentes escenarios estocásticos como por ejemplo: pérdida aleatoria de datos, retardos de tiempo aleatorios, entre muchos otros problemas de comunicación.Thesis ANÁLISIS DE EXPERIENCIAS PRÁCTICAS Y RESULTADOS DE REDES INTELIGENTES(2016) ESPINOZA CUELLAR, HUGO IVAN ALEJANDRO; Universidad Tecnica Federico Santa Maria UTFSM INDUSTRIASLa creciente demanda energética, en un contexto de mayor conciencia social acerca del impacto que las actividades humanas están teniendo en el mundo, está generando fuerte presión en los países para garantizar un abastecimiento confiable, seguro y sostenible, base existencial de una economía y sociedad moderna.Los avances tecnológicos están potenciando la incorporación de fuentes de energía renovables no convencionales y el desarrollo de medidas de uso eficiente de la energía. Las Redes Inteligentes (RI) están permitiendo que los consumidores sean cada vez más protagonistas en la gestión de la demanda.Las RI son un complemento virtuoso entre la red eléctrica tradicional y las tecnologías de la información y de la comunicación, que pueden controlar los flujos y adaptarse automáticamente a los cambios en la oferta y la demanda.El propósito de esta tesis es profundizar en la comprensión de las RI, su alcance y grado de desarrollo actual, así como describir las principales barreras que han impedido un despegue más rápido a nivel mundial.Las RI tienen el potencial de generar muchos beneficios a la economía de un país, favoreciendo a todos, trabajadores, consumidores, empresas y medioambiente. Estos beneficios dependerán de los objetivos estratégicos de cada país, los que podrían ser tan variados como aumentar la eficiencia, mejorar la confiabilidad, estimular las energías renovables, disminuir las emisiones o postergar inversiones. En términos económicos, los beneficios de las RI completamente desplegadas se estiman en 0,7% de PIB.No obstante, existen barreras regulatorias, tecnológicas, de estandarización, de costos de inversión, de mercado, de modelo de negocio y de apoyo, en países menos desarrollados, como Chile, que deben superarse porque están retrasando la masificación de las RI.Un objetivo específico de este trabajo es analizar experiencias prácticas de implementación de RI a nivel nacional e internacional. La cantidad de proyectos e información disponible es amplia, por lo que se presentarán algunos proyectos destacados.Al comparar el desarrollo de las RI en Estados Unidos y Europa puede observarse gran similitud. En ambas regiones existe amplio apoyo gubernamental a la implementación de tecnologías de RI, así como al desarrollo de planes pilotos de demostración. Existen fondos para subvencionar inversiones, investigación, desarrollo y capacitación. Tienen una visión compartida acerca de los aportes de las RI al sector energético en particular y a la economía en general. Van a la vanguardia en el desarrollo tecnológico.En cambio en Chile, la situación es menos dinámica. Se han ejecutado pocas experiencias, destacándose los proyectos de micro-red Esuscon en Huatacondo y SmartCity en Huechuraba, éste último enmarcado en el plan de redes inteligentes de Chilectra. Se describirán ambas experiencias.El análisis de toda la información muestra que las RI tienen una serie de desafíos comunes a nivel internacional. Además de superar las barreras tecnológicas y de estandarización ya mencionadas, está surgiendo con fuerza la necesidad de asegurar la privacidad de los clientes, no sólo protegiéndolos contra las amenazas de virus, “spam” (correo basura) y troyanos (maliciosos), sino que también contra la suplantación de identidad, seguimiento y captura de información. En Estados Unidos ya se detectó problemas con la privacidad de los datos de clientes en RI. Se ha visto vulnerada la información del estilo de vida e incluso el estado de salud de los consumidores, mediante la captura de datos de uso de electrodomésticos, sensores de movimiento y dispositivos relacionados con la medicina.En Chile, los desafíos son otros, más básicos. El primero es alinear la visión de futuro respecto a RI. Aquí el Estado tiene un rol coordinador relevante, similar al que tuvo el Ministerio de Energía en la elaboración participativa de la Política Energética. Chile debe crear un marco regulatorio adecuado para el desarrollo de las RI. Otro desafío es mejorar la normativa que fomenta la generación distribuida, aprovechando las ventajas comparativas en materia de fuentes de energía renovables no convencionales. La normativa actual no está dando los resultados esperados.Este trabajo concluye con el levantamiento de oportunidades que permitan al país enfrentar los desafíos señalados. En primer lugar está el Proyecto de Ley que establece nuevos sistemas de transmisión de energía eléctrica y crea un nuevo ente coordinador. En él se incorpora un proceso de planificación estratégica que debería promocionar nuevas tecnologías, y donde deberían tener cabida las redes inteligentes.Otra oportunidad la da el Proyecto de Ley de Eficiencia Energética, que se espera sea enviado al Congreso el segundo semestre de este año. La meta nacional es disminuir 20% el consumo proyectado de energía al año 2025 mediante iniciativas de eficiencia. Las RI son claves para este desafío por lo tanto deberían fomentarse explícitamente.Una tercera oportunidad es la “Política de Ciencia, Tecnología e Innovación en Energía” que el Gobierno se planteó como desafío desarrollar a partir de este año 2016 y que contempla procesos de planificación tecnológica estratégica, donde las RI no estarán al margen. Por último, Chile debe generar un mecanismo de transferencia de conocimientos, que permita difundir lecciones aprendidas de proyectos de RI, tal como lo hacen los países desarrollados.Thesis ANÁLISIS DE IMPACTOS DE LA TRONCALIZACIÓN DE LÍNEAS ADICIONALES DE CLIENTES LIBRES EN TERCER PROCESO DE TARIFICACIÓN TRONCAL(2016) MOYA CARVALHO, LEONARDO; Universidad Tecnica Federico Santa Maria UTFSM INDUSTRIASEl tercer proceso de tarificación troncal correspondiente al cuatrienio 2016-2019 finalizó con la emisión del decreto supremo 23T de la comisión nacional de energía en febrero del año 2016. En esta ocasión por primera vez, desde la utilización del actual sistema de proceso de tarificación, fueron calificadas como troncales, líneas de calificación previa adicional pertenecientes a clientes libres.El presente trabajo de tesina propone evaluar el impacto de esta innovadora calificación de líneas troncales desde la mirada del cliente libre, entendiendo las justificaciones técnicas del regulador y evaluando las consideraciones e impactos económicos, operacionales, técnicos y normativos involucrados en dicha decisión.Dicha evaluación tiene por objetivo determinar cuáles son las variables relevantes y condiciones para la toma de decisión necesaria sobre los activos de transmisión de clientes libres para el futuro. Como resultado se obtendrá una metodología que sea aplicable como guía en la evaluación de riesgos y decisiones futuras sobre los activos de transmisión adicional calificados como troncal.Thesis ANÁLISIS DE LA DESPROPORCIONADA INSTALACIÓN DE ENERGÍAS RENOVABLES NO CONVENCIONALES EN EL NORTE DEL SISTEMA INTERCONECTADO CENTRAL CHILENO(2017) MUTIS MAGAGNATO, RICARDO ANDRÉS; OLMEDO HIDALGO, JUAN CARLOS; Universidad Tecnica Federico Santa Maria UTFSM INDUSTRIAS; JARA TIRAPEGUI, WILFREDOAun cuando los primeros proyectos de Energías Renovables No Convencionales (ERNC) instalados en el Norte Chico se pusieron en servicio los años 2007 y 2009 (Proyecto Canela I con una potencia instalada de 18,15 MW y Proyecto Canela II con una potencia instalada de 60 MW), no fue hasta el año 2013 que se inició la puesta en servicio masiva de varios proyectos eólicos y solares en dicha zona.La instalación de este tipo de tecnologías en el Norte del país, se debe, entre otros, a los altos índices de irradiación solar y a las condiciones de viento existentes en el Norte Chico. Favoreció además a la instalación, la eliminación de los subsidios en Europa y EE.UU. a las tecnologías ERNC, lo que obligó a los fabricantes de estos equipos a buscar otros mercados como los sudamericanos.Por otra parte, la demanda de energía, en las regiones de Atacama y Coquimbo, asociada a potenciales proyectos mineros, junto con el rechazo a proyectos termoeléctricos (como Barrancones, Castilla, Punta Alcalde), hacía creer que, a partir del año 2015, habría estrechez en el abastecimiento eléctrico del Norte Chico.La cancelación de dichos proyectos termoeléctricos, el supuesto crecimiento de la demanda minera y las restricciones de Transmisión que limitaban la importación de energía desde el sur, pronosticaron erróneamente una falta de suministro eléctrico en la zona norte del SIC, anticipando, erróneamente también, altos costos marginales respecto del resto del sistema.Todo lo anterior, motivó una fuerte instalación de proyectos ERNC en el Norte Chico.Sin embargo, el desarrollo de proyectos mineros en el Norte Chico no fue como estaba previsto. Además, las capacidades de Transmisión de las líneas del norte del SIC tienen limitaciones lo que les impide exportar la totalidad de energía sobrante desde el Norte Chico a la Zona Centro - Sur del país.Debido a: i) la insuficiente capacidad de Transmisión; ii) el importante aporte ERNC durante el día; iii) la baja demanda dado que aún se mantienen postergados los proyectos mineros, se generan mercados desacoplados o no conectados a través de un sistema de Transmisión.Lo anterior, provoca Costos Marginales bajos, incluso 0, en las horas de máxima generación ERNC, lo que afecta principalmente a los generadores solares.Adicionalmente, la Central Guacolda, que posee una capacidad instalada de 760 MW, inyecta su energía en el Norte Chico. Durante el día, y dado que debe operar en la noche cuando no hay sol, a la central Guacolda se le instruye reducir su generación al Mínimo Técnico de 300 MW (ya que no puede detenerse pues debe estar operativa para cubrir el rápido descenso de generación de las plantas solares). Esa operación a Mínimo Técnico genera que energía renovable no se inyecte al sistema (y que por lo tanto se vierta).Las restricciones que las empresas ERNC han enfrentado para inyectar su producción al sistema han implicado la pérdida de energía eléctrica de bajo costo, generando perjuicios económicos tanto a los generadores ERNC como al sistema eléctrico en su conjunto, pues se impide la operación más económica.El escenario anterior ocasiona que generadores ERNC enfrenten una situación financiera compleja pues sus flujos no les permiten, en algunos casos, cubrir sus obligaciones (como es el pago de los intereses de la deuda).Lo anterior, es crítico para aquellas empresas que sólo venden su producción en el mercado spot. También es complejo para aquellos generadores ERNC que inyectan su energía en el Norte Chico y que tienen contratos con clientes en la zona centro (es decir retiran del sistema a Costos Marginales más altos).Debido a lo antes indicado, los bancos han establecido condiciones más rigurosas para el otorgamiento de financiamiento de proyectos ERNC. Actualmente los bancos sólo financian proyectos ERNC cuando existe un contrato de compra y venta de energía que permita al generador asegurar el pago da la deuda.Una vez finalizada la construcción de la línea de 500 kV que desarrolla la empresa INTERCHILE S.A. y una vez finalizada la línea que interconectará el SIC con el SING (desarrollada por TEN), se eliminarán los mercados aislados y sus consecuencias (Costos Marginales 0 en el Norte Chico debido a la sobre oferta de ERNC).La no generación de nuevos mercados desacoplados en el futuro dependerá de una adecuada planificación y de la construcción de nuevas líneas de Trasmisión, del crecimiento de la demanda y del crecimiento de la oferta de generación.Thesis ANÁLISIS DE LA GESTION DE INVERSION DE LA GRAN MINERÍA DEL COBRE EN PERIODOS DE CRISIS(2017) SILVA ALCAÍNO, DAVID GONZALO; Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA COMERCIALLa presente investigación analiza la gestión de inversiones en la minería del cobrerealizada en el último período de caída del precio de la libra de este metal, lo cualalcanza valores críticos en el año 2015. El análisis se centra en la minera estatalCodelco Chile, que es hasta hoy un pilar fundamental en el financiamiento y eldesarrollo económico del Estado de Chile.Para realizar este análisis se estudia el negocio de producción de cobre, y enparticular el proceso de extracción del mineral y reservas disponibles presentandoel estado de actual de los yacimientos de Codelco y con ello, la proyección de lavida útil de su operación.Por otra parte, también fue necesario conocer y analizar los resultadosoperacionales y de producción, así como las inversiones que permitieron mantenerel negocio de explotación de los yacimientos y de sus procesos.En particular, esta tesis centrará el análisis de inversiones en proyectos definidoscomo estructurales, los cuales tienen como objetivo dar continuidad a losyacimientos principales, y que son los que demandan los mayores montos deinversión en el período.Como resultado del análisis se concluye que si bien el escenario actual escomplejo, los proyectos definidos como estructurales permitirán extender elnegocio de Codelco por unos 40 años más, el monto que se requiere comoinmediato, año 2015 y quinquenio posterior, es bastante menor que el estimadooriginalmente hasta hace 4 años (27.000 MUS$ para el quinquenio en memoriadel 2012), lo que se debe al aplazamiento en la ejecución de obras por problemastécnicos o debido a la necesidad de ampliar los estudios preliminares, paraseleccionar alternativas técnico-económicas más convenientes.Thesis ANÁLISIS DE LA IMPLEMENTACIÓN DEL NUEVO MODELO DE SERVICIO "FAST FASHION" EN TIENDAS POR DEPARTAMENTO Y SU IMPACTO EN LA EXPERIENCIA DE COMPRA DE LOS CLIENTES(2016) HUERTA INOSTROZA, ALEX ALFREDO; VALENZUELA OYANEDER, LIONEL ANDRÉS; Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA COMERCIALSegún el Centro de Estudios del Retail de la Universidad de Chile, cuando se habla de Retail, se alude al comercio que se realiza al detalle, es decir, cuando las empresas venden directamente a los consumidores finales a través de diversos formatos. Las grandes cadenas han logrado un nivel de relevancia indiscutible, gran parte de ello debido a la preocupación de las empresas en mejorar sus procesos de cara al cliente, invirtiendo gran parte de sus recursos en implementar metodologías tanto cuantitativas como cualitativas para lograr entender a los consumidores y sus necesidades. (CERET, 2015).El retail se caracteriza por el alto nivel de operaciones, relación constante con los clientes, dinamismo en los puntos de ventas, variedad de artículos que son considerados mayormente “comodities”, es decir, productos genéricos, básicos e indiferenciados entre sus variedades que lo califica como una de las industrias más complejas en términos de fidelización. Dentro de este contexto es importante recordar que se enfrentan a un nuevo tipo de consumidores, los cuales se caracterizan por estar aferrados a herramientas comunicacionales y nuevas tecnologías, están presenciando la era de consumidores con carácter, participativos, informados, conectados, activos, con un pensamiento globalizado, exigentes, ligados a redes sociales y medios digitales, que buscan productos personalizados, de momentos y experiencias compartidas. En este último punto, la decisión final se basa en gran medida por comentarios de amigos, familiares o personas comunes que tienen las mismas necesidades, deseos y expectativas sobre un determinado producto o servicio.El cliente en retail de una u otra manera siempre logra tener una experiencia de compra, la cual claramente puede ser muy diversa. Lo relevante en este punto de vista es calificar e interpretar estas experiencias, de manera que la organización pueda tomar decisiones que estén en la misma dirección que sus objetivos estratégicos fundamentales. La implementación de un nuevo modelo en tiendas por departamentos, orientado al autoservicio, es una estrategia atractiva de analizar, ya que es un cambio gradual que las tiendas de retail han ido validando e implementando en Chile, debido en gran parte al análisis de resultados obtenidos en países desarrollados, a exitosos modelos de negocios como la marca Zara y a una nueva visión competitiva que se ajuste a los cambios observados en el mercado.El nuevo sistema de atención pretende cambiar la figura de vendedor integral a una de reponedor, el cual tiene características y responsabilidades muy distintas en lo que se refiere a la relación con el cliente. El primero aborda al cliente asesorándolo dentro de una atención más personalizada facilitándole el proceso de decisión de compra. El segundo, según datos informales recabados en tienda, tiene como objetivo principal la reposición de mercadería y exhibición de los productos en los puntos de venta, sin tener mayor contacto con el cliente final, lo cual puede afectar la experiencia de compra si no se define y estudia bien el perfil del reponedor y se ponen en el centro de la decisión estratégica del negocio las necesidades de sus clientes, no sólo en términos racionales sino también emocionales.Thesis ANÁLISIS DE LA INCORPORACIÓN DE GENERACIÓN ERNC DE TIPO INTERMITENTE PARA UNA INTEGRACIÓN TÉCNICA Y ECONÓMICA ÓPTIMA CON EL PARQUE DE GENERACIÓN TÉRMICA(2016) MANTE TORRES, CARLOS IGNACIO; Universidad Tecnica Federico Santa Maria UTFSM INDUSTRIASDe acuerdo a lo establecido en la Ley 20.698, Chile tiene como objetivoproducir el 20% de su energía al año 2025 a partir de fuentes de EnergíasRenovables No Convencionales (ERNC). De esta forma y considerando lasproyecciones del mercado, esta cuota sería ampliamente superada llegando aalcanzar alrededor de un 40% de la energía producida sobre la base de ERNCpara el año 2030, donde alrededor de 42.000 GWh/año corresponderán atecnologías Eólicas y Fotovoltaica, con una capacidad instalada estimada de14.000 MW ( 6.100 MW Eólico y 7900 MW Solar).Esta alta integración de ERNC de tipo intermitente trae consigo efectoseconómicos y técnicos a nivel sistémico que deben ser considerados a fin deobtener una integración óptima de este tipo de tecnología con el parqueexistente, maximizando los beneficios globales por concepto de la incorporaciónde un bloque masivo de generación ERNC.Desde el punto de vista técnico, esta alta integración provoca un aumentoconsiderable de la operación cíclica del parque térmico, cuya distribucióndependerá de la flexibilidad que presente el parque a fin de afrontar desde lasvariaciones de carga hasta continuas detenciones y partidas de las distintasunidades de generación térmica. De esta forma, para obtener una generaciónconfiable y segura del sistema, éste requiere de un parque térmico robusto yflexible.De los resultados obtenidos en el estudio de la Mesa ERNC, y en virtud de losniveles de penetración de ERNC explorados, se observa que las unidades devapor-carbón continúan con el número de ciclos promedios experimentadosactualmente en la operación de los sistemas eléctricos nacionales.Asimismo, se observa que con una incorporación masiva de fuentes variablescomo eólica y solar fotovoltaica, el número de ciclos promedio de turbinasasociadas a ciclos combinados operando con GNL podría triplicarse.Dicha condición no dista de ciclos operativos que unidades de estascaracterísticas han experimentado en la operación normal de los sistemasnacionales, y están muy por debajo de operaciones típicas en sistemaseléctricos internacionales. Los resultados muestran que en el peor de los casosno se superarían 3 partidas semanales para unidades de ciclo combinado.Si las características técnicas de nuestro parque térmico se acercaran aparámetros internacionales, que permitirían una mejor integración de energíavariable, se observa un aumento en el número de ciclos de varias tecnologías térmicas a medida que aumenta el nivel de participación eólico-fotovoltaico.Particularmente se aprecia un aumento en los ciclos de las unidades de carbóny de los ciclos combinados que operan con GNL.Lo anterior se deduce de una disminución en el costo de ciclaje con unidadesde carbón y GNL en desmedro de realizar dicha tarea con unidades diesel. Apesar de observar una operación más agresiva, los resultados muestran que enningún caso se obtienen valores de ciclos promedio por sobre la referenciainternacional.Esta incorporación masiva de energía renovable variable generará un uso másintensivo del parque térmico e hidroeléctrico con el objetivo de gestionareficientemente niveles crecientes de variabilidad e incertidumbre en laoperación. A fin que las ERNC de generación variable no generen alzas en loscostos operacionales tendientes a incrementar los costos globales de expansiónde los sistemas eléctricos, se hace necesario incrementar la flexibilidad actualdel parque térmico, como también de mitigar el resto de los afectos adversosque se producen.El parque térmico actual de nuestro sistema eléctrico corresponde a un parquemaduro, con una alta variabilidad respecto a los parámetros claves para laflexibilidad, específicamente en cuanto a mínimos técnicos, tiempos y costos departida, como también a la tasa de salida forzada. Respecto a esta última, seobserva que unidades nuevas estarían bajo los límites nominales para cada tipode tecnología, donde la dispersión mayor se visualiza para unidades con másde 10 años de operación, cuya variabilidad respecto a lo esperado se justificaríaprincipalmente al historial de operación, diseño y prácticas de mantenimiento yconservación realizadas.La generación variable de ERNC trae consigo desde un seguimiento de cargahasta partida y detenciones tanto frías como calientes de las unidades térmicas,lo cual provoca un derrateo del ““Heat Rate”” o Eficiencia de estas unidadesafectando sus costos variables de operación. Se observa que unidades decarbón y ciclos combinados operando a un 50% de carga tienen un incrementodel ““Heat Rate”” de 6% y 15% respectivamente.De acuerdo a la experiencia internacional en la materia, se establece que existeuna correlación directa entre el aumento de la operación cíclica y el aumento dela tasa de salida forzada, cuyo impacto depende principalmente de las prácticasoperacionales históricas y del diseño de las unidades. De esta forma, unincremento de la operación cíclica del parque térmico traerá un aumento de latasa de salida forzada y periodos de mantenimiento, lo que se traduce en unadisminución de la disponibilidad del parque térmico. Desde el punto de vista regulatorio y teniendo en cuenta los afectos sobre losniveles de emisiones del parque térmicos, con miras a dar cumplimiento a loestablecido en el Decreto Supremo N°13, los análisis realizados tomando enconsideración las curvas de arranque de cada una de las tecnologías, lossistema de abatimiento que estas poseen, los niveles de generación, potenciainstalada y niveles de operación cíclica estimados para cada tecnología, seobserva que de acuerdo a los escenarios proyectados de integración ERNC yniveles de flexibilidad del parque térmico (Parámetros Nacionales eInternacionales) las tecnologías de carbón y ciclos combinados GNL y Dieselpodrían tener un incumplimiento de la cantidad de horas máximas permitidaspara superar los límites establecidos en el DS-13.11.Respecto a las emisiones de SO2, las Centrales Térmicas a carbón estarían allímite de tener un incumplimiento, sobre todo si se pasa desde partidas encaliente a tibias para condición cíclica. Los ciclos combinados y turbina a gasoperando con FO Diesel no deberían tener problemas de emisionesconsiderando los limites de azufre por norma (Diesel Gr. A 15 ppm max. yDiesel Gr. B 50 ppm max.). Caso distinto seria para unidades operando conpetróleo pesado, donde se superarían los 30 mg/Nm3 para unidades existentesy los 10 mg/Nm3 para las unidades nuevas.Situación similar se visualiza para las emisiones de Material Particulado para laUnidades a Carbón y Ciclos combinados operando con Diesel.Desde el punto de vista de las emisiones globales del sistema, se observa quea medida que se incrementa el nivel de integración ERNC las distintasemisiones se ven disminuidas, producto del desplazamiento de generacióntérmica, logrando disminuciones entre un 10% a 30% según tipo decontaminante y nivel de flexibilidad del parque. Este último parámetrorepresenta un factor fundamental en los niveles de emisiones obtenidos, ya quellevar el parque térmico a estándares internacionales de flexibilidad provocaríadisminuciones cercanas a un 8% para CO2, 37% para NOx, 44% para SO2 y 4%para MP. Un aspecto importante a destacar corresponde a que las emisionesproducto de la operación cíclica se ven incrementadas a medida que seincrementan los niveles de integración ERNC, pero estás solo representan entreun 1% a 3% de las emisiones globales del sistema, dependiendo del escenariode integración y flexibilidad del parque térmico.De esta forma, se verifica la necesidad de incorporar sistemas de abatimientopost-combustión de tipo SCR para el abatimiento de emisiones de NOx, para launidades nuevas considerar sistema de desulfurización de tipo húmedo(WFGD) dado su mejor desempeño en todas las etapas de operación de lascentrales para el abatimiento de SO2, como también mejorar aspectos