Tesis de Postgrado Acceso Abierto
Permanent URI for this collectionhttp://138.197.15.165:4000/handle/123456789/2
Browse
Browsing Tesis de Postgrado Acceso Abierto by Issue Date
Now showing 1 - 20 of 255
- Results Per Page
- Sort Options
Thesis MODELACIÓN NUMÉRICA DE LA DISPERSIÓN DE CONTAMINANTES EN CALLES Y TERRENOS DE GEOMETRÍA COMPLEJA(Universidad Técnica Federico Santa María, 1997) ROSALES HUERTA, CARLOS EDUARDO; CARVAJAL GUERRA, FERNANDO; Universidad Técnica Federico Santa María. UTFSM. Casa CentralThesis DESALINIZADOR SOLAR DE MÚLTIPLES EFECTOS A ALTA TEMPERATURA(2001) GÁLVEZ SOTO, EDUARDO ANTONIO; ROTH URBAN, PEDRO; Universidad Técnica Federico Santa María. Departamento de Ingeniería Mecánica; RHEINLÄNDER, JÜRGEN; CARVAJAL GUERRA, FERNANDOEn este trabajo de tesis se desarrolla un proyecto de investigación amplio en el que se mezclan aspectos científicos, tecnológicos y sociales. Para esto se ha realizado un estudio de un nuevo modelo de desalinizador solar de múltiples efectos que trabaja a alta temperatura...Thesis HERRAMIENTAS WEB TRANSACCIONALES Y SU IMPACTO EN LA EMPRESA(Universidad Técnica Federico Santa María, 2004) AGUIRRE KRÜGER, IGNACIO RODRIGO; FUENZALIDA O''SHEE, DARCY ELIZARDO '; Universidad Técnica Federico Santa María UTFSM. Escuela de Graduados. MBA InternacionalEn la era del advenimiento de la tecnología y de la globalización, el rol de las tecnologías de la información en el entorno de la macro y micro economía juega un papel relevante. Las barreras de las competencias bajan, los modelos de negocios basados en precios son cada vez más difíciles de defender. La dinámica de los negocios se enfrenta a cambios cada vez mayores y la tecnología apuesta a jugar un rol importante en este nuevo escenario. En este marco dinámico, la empresa necesita de un modelo de gestión que le ayude a ajustarse a las nuevas formas de hacer negocio, desarrollando estructuras flexibles de acuerdo a las necesidades y tiempos de solución que impone el mercado. La complejidad de aprender del acelerado mercado tecnológico y el desarrollar nuevas estrategias diferenciadores, constituyen el verdadero desafío para la empresa que desee tener éxito. El presente trabajo de investigación tiene por objetivo proporcionar al lector el estado del arte de las herramientas WEB transaccionales y probar que la incorporación de estas herramientas de tecnologías de información (T.I), tiene un impacto positivo directo en las funciones de Rentabilidad, y Costos asociados en las áreas de servicio de la empresa y que constituirán en el futuro inmediato, parte esencial de los elementos calificadores en los negocios y un generador de las ventajas comparativas de la empresa. Para delimitar el campo del presente estudio y el área de análisis, el desarrollo de la investigación se centrará en la implantación de Cronus (M.R), un CMR estándar del mercado y en los datos empíricos de la explotación de esta herramienta como apoyo a la gestión de la Administración de un ''''Help Desk'''' de servicios técnico.'Thesis Pion production by diffraction of W bosons in the dipole model(2011-06) Egaña Ugrinovic, Daniel; Schmidt Andrade, Iván Eugenio (Profesor Guía); Universidad Técnica Federico Santa María. Departamento de FísicaIn this work the scattering of neutrinos off heavy nuclei by exchange of W bosons in the color dipole model is studied, for small boson virtualities and energies of the order of some GeV’s. The first objective of this work is to analyze the black disc limit and to compare the results of the dipole model using perturbative light front wave functions with the ones of the meson model, which are vanishing because of lepton current conservation. Since both results differ, a more complete analysis is carried out, based on Glauber’s approach. At high energies, it is known that the color dipole model is well suited to study diffractive processes on nuclei, but at smaller energies the dipole lifetime is not large enough for the dipole to travel through the nucleus with a frozen transverse size. The short-lived dipoles are identified, and explicit calculations are carried out to determine if they have a large contribution to the final cross section. Although the model presents serious problems because of these short-lived asymmetric pairs, it provides a lower bound for the total cross section of pion production and it gives some additional hints that could be also of interest in more sophisticated models.Thesis Transporte cuántico a través de nanoestructuras(2013-09) Calle Arcila, Ana María; Pacheco Doll, Mónica Jeanette (Profesora Guía); Orellana Dinamarca, Pedro Alejandro (Profesor Correferente); Universidad Técnica Federico Santa María. Departamento de FísicaPropiedades de transporte cuánticas asociadas a efectos de con namiento en sistemas de muy baja dimensionalidad motivaron el desarrollo de este proyecto de tesis. Se presentarán algunos resultados asociados al transporte electrónico en los cuales, fenómenos de interferencia juegan un rol fundamental. El ordenamiento espacial de los componentes del sistema, su geometría y composición permiten modular las propiedades de propagación de los electrones dando lugar a resonancias Fano, efecto de proximidad, estados ligados de Andreev, efecto Kondo, entre otros. En específi co, los sistemas considerados están basados en puntos cuánticos y anillos de puntos cuánticos, en donde algunos de sus componentes pueden o no ser superconductores. Inicialmente se estudió un sistema de dos puntos cuánticos acoplados en forma de T a dos contactos metálicos normales y a un contacto superconductor. Acá, las propiedades de transporte y shot noise permitieron dilucidar los efectos del contacto superconductor. Como consecuencia de los efectos de interferencia cuántica y el efecto de proximidad inducido por la presencia del superconductor, se encontró que el sistema exhibe resonancias Fano debido a estados ligados de Andreev. Esto abre la posibilidad de estudiar dichos estados ligados de Andreev por medio de los cambios en la transmisión entre dos contactos normales. Posteriormente, para el mismo sistema mencionado anteriormente, se estudió el efecto de incluir correlación entre electrones en el punto cuántico central, para lo cual fue necesario utilizar el método de bosones esclavos para U in nito lo cual permite obtener las propiedades de transporte en el régimen Kondo. Finalmente, se estudió el efecto Kondo de un anillo usando un método de diagonalización exacta.Thesis Propiedades optoelectrónicas de nanodiscos y nanoconos de carbono(2013-10-14) Ulloa Poblete, Pablo Augusto; Pacheco Doll, Mónica Jeanette (Profesora Guía); Universidad Técnica Federico Santa María. Departamento de FísicaLos nanoconos de carbono son estructuras observadas por primera vez en las terminaciones de nanotubos, presentando ápices similares a la super cie de fullerenos. Actualmente existen procesos industriales que pueden generar mezclas de nanodiscos y nanoconos. En esta Tesis se presenta un estudio teórico de las propiedades electrónicas y ópticas de nanodiscos y nanoconos de carbono monocapa, dentro del esquema de enlace fuerte. El patrón espacial de la densidad local de estados no es homogéneo y en función de la energía exhibe los elementos de simetría, las condiciones de borde y la presencia de defectos topológicos en la estructura. En los nanodiscos, sus átomos no exhiben desviaciones signi cativas de la neutralidad eléctrica; en cambio, los nanoconos alojan carga negativa en los defectos apicales y positiva en los bordes zigzag. La carga se puede redistribuir en presencia de un campo eléctrico externo, pero las desviaciones más signi cativas ocurren en el borde y en el ápice. El espectro de absorción es dependiente de la polarización de la radiación electromagnética y de la abertura angular del cono. Cuando la polarización es paralela al eje del cono, las transiciones de baja energía están suprimidas, debido a la naturaleza de los estados en torno al nivel de Fermi. Se muestra que el espectro de absorción es fuertemente afectado por la presencia de un campo eléctrico. En la región infrarroja aparece una resonancia modulada por el campo, mientras que el peak de absorción para transiciones entre las energías de las singularidades de Van Hove se suaviza en la medida que la intensidad del campo aumenta.Thesis DISEÑO E IMPLEMENTACIÓN LÓGICA DE CONTROL EXPERTO EN ESPESADOR DE RELAVES, PLANTA LAS TÓRTOLAS(Universidad Técnica Federico Santa María, 2014) OJEDA VÁSQUEZ, PABLO; BERGH OLIVARES, LUIS GUILLERMO; Universidad Técnica Federico Santa María UTFSM. Departamento de Ingeniería Química y Ambiental; Yianatos Bernardino, Juan; Moglia Picart, MauricioEste trabajo presenta el desarrollo e implementación de un sistema de control experto estructurado en reglas lógicas, para mantener el control de la operación de espesamiento de relaves en la Planta “Las Tórtolas” de AngloAmerican. Las reglas han sido diseñadas a partir de las filosofías de operación del personal experto, con el objetivo de lograr un control estable de las variables de interés y la optimización de los indicadores de rendimiento de este espesador de 125 m de diámetro, diseñado para procesar en torno a 13000 m3/h de pulpa. La importancia en el consumo del recurso hídrico en la industria minera, hace necesario aumentar los esfuerzos en recuperar la mayor cantidad de agua posible desde los procesos de separación sólido-líquido. Adicionalmente, los desafíos futuros de la minería en nuestro país, se focalizan en la reducción de costos, por ejemplo en el consumo de recursos como floculante, y la seguridad para las personas y el medioambiente. Para cumplir estos objetivos, el sistema experto se estructuró en dos fases. Primero, permite bajo ciertas condiciones tomar el control de la operación, ajustando las variables dentro de una banda de seguridad y luego, utiliza los recursos disponibles para optimizar las condiciones de operación que permitan una mayor recuperación de agua. La primera fase del encadenamiento de reglas lógicas, revisa las variables de operación con la instrumentación disponible en el espesador de relaves, asociadas al torque de las rastras, presión de la cama de lodos (inventario de sólidos) y nivel de interfase (profundidad de cama). Mediante el análisis conjunto de estas mediciones, el sistema determina las acciones necesarias para ajustar las variables dentro de un rango seguro, mediante la modificación de los recursos de control disponibles: flujo de descarga y dosificación de floculante. Para ello, el sistema cuenta con flujómetros y válvulas de control en las dos líneas de descarga, y variadores de frecuencia en las bombas de dosificación de floculante. La segunda fase, ejecuta acciones que permitan optimizar la recuperación de agua, a través de la obtención de porcentajes de sólidos más altos en la descarga, al mismo tiempo que se busca reducir el consumo de floculante y mantener la estabilidad del sistema, en la medida que las condiciones de operación lo permitan. Para ello, la instrumentación del sistema cuenta con medidores de densidad nucleares, que determinan el contenido de sólidos en las líneas de descarga del espesador.Thesis Analytic QCD models and their applications to hadronic processes(2014-01) Ayala Nuñez, César; Cvetic, Gorazd (Profesor Guía); Zerwekh Arroyo, Alfonso Raúl (Profesor Correferente); Kovalenko, Sergey (Profesor Correferente); Universidad Técnica Federico Santa María. Departamento de FísicaQCD analático corresponde a un topico de QCD en el cual el acoplamiento que corre con la energía es un parametro que posee las mismas propiedades analíticas que las cantidades físicas (medibles) tipo-espacio, tales como (derivadas de) correlador de corrientes, funciones de estructura, parte adimensional de propagadores, etc. En otras palabras, el acoplamiento que corre en QCD analático es una función analática (holomor ca) en el plano complejo del momentum al cuadrado Q2 ( -q2), excepto en el semieje tipo-tiempo Q2 < -M2 thr (donde Mthr 10�����1 GeV). Por otro lado, en la QCD perturbativa, el acoplamiento que corre no posee dichas propiedades holomor- cas, sino que posee una singularidad (Landau) no física, ubicada en el eje positivo de Q2 en el régimen infrarojo 0 < Q2 < 1 GeV2. Como consecuencia, la teoría de perturbación en QCD falla, que es, resultados erróneos para cantidades físicas de baja energía. En esta Tesis, revisaremos varios modelos de QCD analítico y los aplicaremos a fenomenología de bajas energías.Thesis Modelación Numérica de la producción de Hidrógeno y Gas de Síntesis mediante la Oxidación Parcial de Petróleo Pesado N°6(2015) INFANTE MIRANDA, FELIPE ANDRÉS; TOLEDO TORRES, MARIO GONZALO (prof. guía); Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA MECÁNICA; GRACIA C., FRANCISCOEn el marco del proyecto FONDECYT 1121188, el presente trabajo tiene lafinalidad de formular un modelo de cinética de combustión de petróleo pesado acoplado almodelo de combustión en medios porosos inertes. De acuerdo a los variados esquemas dereacción revisados en la literatura, se presenta un esquema de reacción propuesto en estetrabajo que varía en función de la razón de equivalencia (f) Se presenta el modelo matemático de la combustión en medios porosos inertes queconsidera las ecuaciones de conservación de energía, masa y especie química, el cual seacopla al esquema de reacción propuesto.El modelo se resuelve mediante diferencias finitas utilizando el algoritmo TDMA, ypara cada reacción se resuelve de acuerdo al perfil de temperaturas en serie y para lageneración de hidrógeno se considera la water gas shift reaction.Resultados experimentales de perfiles de temperatura, producción de hidrógeno (H2)y monóxido de carbono (CO) permiten validar el modelo y el esquema de reacciónpropuesto para un f = 1.3. La temperatura máxima modelada es de 1103 K, similares losensayos de laboratorio esta temperatura es cercana a 1400 K. Por su parte el porcentaje envolumen obtenido en el modelo de CO y H2 es de 14.78% y 9.43% respectivamente,similares los resultados obtenidos en laboratorio son de 15.85% y 9.98% respectivamente.Como conclusión, el modelo posee las siguientes características: Se debe imponerun diámetro de reactor menor a 0.1 m para poder trabajar en un modelo de una dimensión.Se debe imponer una temperatura de ignición alta mayor o igual a 844 K. Se debe imponervelocidades de entrada de la mezcla bajas debido a la alta densidad de este tipo de combustibles, de este modo se evita la turbulencia dentro del volumen de control. Amedida que aumenta la razón de equivalencia, aumenta la temperatura del frente decombustión. Y a medida que aumenta la razón de equivalencia, aumenta la temperatura delperfil de la llama.Thesis MEASURING AND MODELING OF THERMODYNAMIC SOLUBILITY OF BIOACTIVE PHYTOCHEMICALS COMPOUNDS IN SUPERCRITICAL CARBON DIOXIDE: NOBILETIN + CO2 AND MENADIONE + CO2(2016) CABRERA PALACIOS, ADOLFO LUIS; DE LA FUENTE, JUAN C.; Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA QUíMICA Y AMBIENTAL; NUÑEZ, GONZALO; ZACCONI, FLAVIASe realizaron mediciones de isotermas de solubilidad de 2-(3,4-Dimethoxyphenyl)-5,6,7,8-tetramethoxychromen-4-one (nobiletina) y 2-methyl-1,4-naphthoquinone (menadiona) en dióxido de carbono supercrítico a temperaturas de (313, 323 y 333) K y presiones de (9 a 32) MPa usando una metodología analítica con recirculación, con determinación directa de la composición molar de la fase rica en dióxido de carbono usando cromatografía líquida de alto rendimiento. Los resultados indican que el rango de la solubilidad de nobiletina medida fue de 107 · 10-6 mol · mol-1 a 333 K y 18.35 MPa a 182 · 10-6 mol · mol-1 a 333 K y 31.40 MPa. Similarmente, la solubilidad de menadiona medida varió de 630 · 10-6 mol · mol-1 a 333 K y 9.72 MPa a 1057 · 10-6 mol · mol-1 a 333 K y 13.43 MPa. La validación de los datos de solubilidad experimentales se realizó usando tres enfoques, a saber, estimación de la incertidumbre combinada expandida para cada punto de solubilidad a partir de valores de parámetros experimentales (=23 · 10-6 mol · mol-1 y =111 · 10-6 mol · mol-1 para nobiletina y menadiona, respectivamente); consistencia termodinámica, verificada utilizando un test adaptado de herramientas basadas en la ecuación de Gibbs-Duhem y datos de solubilidad obtenidos de modelación; y auto-consistencia, demostrada mediante la correlación de los datos de solubilidad con un modelo semi-empírico como una función de la temperatura, presión y densidad de CO2 puro.Thesis CENTRALES DE GENERACION BASADA EN MOTORES DE COMBUSTION INTERNA DE DOBLE COMBUSTIBLE Y SU APLICACIÓN EN EL SECTOR INDUSTRIAL(2016) MONTAÑO GUZMAN, FERNANDO; Universidad Tecnica Federico Santa Maria UTFSM INDUSTRIASEste documento detalla, la investigación técnico-económica de la tecnología de generación de doble combustible, el cual basado en una tecnología ampliamente conocida como son los motores de combustión interna, representa una alternativa de suministro de energía eléctrica para la industria, entre los objetivos de este estudio esta encontrar el punto donde se puede hacer de éste un concepto atractivo para la industria, identificar las ventajas y desventajas de su utilización, las confiabilidades y seguridades que otorgaría en el suministro, los posibles puntos referidos al marco regulatorio u la utilización más adecuada de esta tecnología para distintas opciones de negocio como PMGD, corte de punta o Auto-producción en clientes industriales, ubicados tanto en el segmento libre como regulado.Respecto a esta tecnología, las aplicaciones de motores de doble combustible se han visto impulsadas en los últimos tiempos principalmente por los beneficios económicos y características de flexibilidad asociados a la operación, sin embargo la atractividad económica dependerá en gran medida de la cantidad total de combustible diésel que será desplazado por el gas, así como del diferencial de precio que pudiese existir entre ambos combustibles, un motor de doble combustible adecuadamente desarrollado y aplicado en su uso final, puede reemplazar el motor diésel convencional en casi todos sus campos de aplicación, en especial, cuando las limitaciones asociadas a la facilidad de transporte del combustible gaseoso pueden ser resueltas, los motores de doble combustible se utilizan ampliamente en aplicaciones fijas como es el caso de la generación eléctrica.De las principales conclusiones del estudio, se tiene que los PMGD con motores de combustión interna Bi-fuel, estarían obligados a apostar al costo marginal el cual tiene variación horaria, esto se debe a que sus costos operativos son mayores al precio estabilizado, además el análisis económico de tipo determinístico de los PMGD con tecnología Bi-Fuel mostro resultados positivos los cuales se sustentan en supuestos fuertemente condicionados a variables de mercado (analizadas ex_post como en el caso del costo marginal horario 2015), haciendo la sensibilización y en particular el análisis estocástico de las principales variables se obtiene como resultado una distribución de probabilidades donde cerca al 46% de la distribución toma valores negativos lo cual implica un alto riesgo para el negocio.Del suministro bajo un contrato PPA para un cliente Libre vs corte de punta, no se vislumbran ventajas económicas claras mostrando resultados negativos para los casos analizados, en el desarrollo del estudio solo se obtuvo beneficios económicos cuando se tomó la inversión como costo hundido. Debido a que los resultados económicos varían con el comportamiento eléctrico del cliente y su curva de carga, es necesario evaluar caso a caso la factibilidad económica de la operación de corte en punta, modulación de carga u otras opciones para disminuir la potencia en punta.Los resultados de los análisis técnico-económicos para los casos analizados (PMGD, corte de punta o Auto-producción en clientes libres y regulados) muestra un panorama donde la tecnología Bi-Fuel como fuente de energía si bien representa algunas pequeñas ventajas comparando con sus tecnologías pares (diesel, Gas Natural), visto en conjunto las tecnologías de generación basada en motores de combustión interna, tienen una muy limitada competitividad en el mercado eléctrico principalmente dada la alta dependencia del precio altamente variable de los combustibles y su volatilidad asociada.Por supuesto se debe reconocer que es posible que la tecnología Bi-Fuel sea competitiva ante escenarios particulares, por ejemplo cuando los costos de conexión a la Red Comercial sean superiores en comparación al uso continuo de generadores basados en MCI, otro escenario posible es que, debido a los problemas ambientales los motores diesel tengan restricciones en la operación de corte de punta en zonas con problemas de contaminación, y que los motores Bi-Fuel producto de la operación con ambos combustibles (Diesel & GN) por lo tanto teniendo menores emisiones puedan operar, con lo cual se generaría un posible mercado para esta tecnología.Los principales factores de riesgo identificados para de la tecnología de doble combustible varían de acuerdo a los escenarios evaluados es decir PMGD, corte de punta o autoproducción. Entre estos Factores de Riesgo principales están las los riesgos operacionales como horas de operación, como también los factores de riesgo de mercado como el costo marginal en la barra de inyección, los Costos Variables Combustibles.Las horas de operación y el CMg representan los ingresos económicos directos para un PMGD, la difícil determinación de las horas de operación a un costo marginal conveniente representan un factor altamente riesgoso.Del lado de los costos como principal factor de riesgo se encuentran los costos variables combustible los cuales en chile dependerán inevitablemente del mercado internacional debido a las altas tasas de importación de combustibles, en el entendido que el comportamiento que sufre el precio del combustible es volátil, este implica un alto riesgo para el resultado económico futuro principalmente para las opciones de PMGD y Auto-producción, en el caso particular del gas natural y/o GNL se requiere de negociaciones de contratos generalmente a largo plazo para grandes volúmenes de consumo, donde la principal función de los contratos es la mitigación y transferencia del riesgo, los contratos tienden a ser fuertemente inflexibles con cláusulas de tarifas e indexaciones definidas como el Take or Pay lo que también representa un factor de riesgo alto.Thesis IRÁN Y SU POSIBLE NUEVO PAPEL EN EL MAPA PETROLERO(2016) RIVEROS OLMEDO, ADRIAN ESTEBAN; Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA COMERCIALDentro del mercado mundial un factor clave que predomina actualmente en el desarrollo de la economía mundial es el petróleo, es ultimo ha presentado fuertes variaciones en los precios del crudo que pasaron de más de US$100 por barril a menos de US$30 en menos de un año. Esto último debido a múltiples factores como la recesión de china, el aumento de las tasas arancelarias y la inclusión de nuevos oferentes en el mercado petrolero como lo es Irán el cual según el acuerdo firmado el 14 de julio del 2015 entre Irán y los cinco miembros del consejo de seguridad de las naciones unidas más Alemania, estipula que el país reduzca sus existencias de uranio enriquecido en un 98% en 15 años y su capacidad de enriquecerlo en dos tercios en 10 años1. A cambio, se levantarán todas las sanciones impuestas por su programa nuclear, lo que le permitirá exportar petróleo a mercados hasta ahora restringidos, como la unión europea.Las consecuencias potenciales de la vuelta del petróleo iraní a los mercados occidentales pueden ser significativas: Irán es el séptimo productor mundial, con 3,4 millones de barriles diarios (MBD) de crudo de un total global de 93 MBD en 2014; ocupa la cuarta posición en niveles de reservas, por detrás de Venezuela, Arabia Saudí y Canadá; y se encuentra en el grupo de los productores de más bajo coste.Un aumento que sin duda se verá favorecido por la mejora de la capacidad financiera del país, que recuperará el acceso a los activos que tenía bloqueados en el extranjero, y por el esperado incremento de las inversiones extranjeras. No en vano numerosas petroleras foráneas ya han mostrado un gran interés por el país. Así, el Gobierno espera alcanzar a medio plazo una producción total de 5 MBD, una cifra que no parece exagerada si se tienen en cuenta los 6 MBD que Irán producía en la década de 1970.De lo anterior, se realizará un estudio para analizar el impacto en la economía mundial de la variación del petróleo, los agentes productores y como Irán afrontará la apertura estos nuevos mercados, analizando su estructura interna de gobiernos, las restricciones políticas y legislativas para propiciar la inversión y reactivar la producción interna de petróleo a niveles de 500.000 (8) barriles por día en el mediano plazo de 6 a 12 meses.Finalmente recomendaremos las principales medidas para afrontar el posible estancamiento y la tendencia al desplome de precios para el petróleo y como potenciar la inversión futura para la reactivación de su economía.Thesis IMPACTO EN LA ESTRUCTURA DEL MERCADO DE GENERACIÓN ELÉCTRICA POR UN INCREMENTO EN LA PENETRACIÓN DE GAS NATURAL LICUADO EN LA MATRIZ ENERGÉTICA DE CHILE(2016) SUBIABRE PRATO, GASTÓN RENÉ; Universidad Tecnica Federico Santa Maria UTFSM INDUSTRIASEl gas natural licuado surgió como una alternativa de combustible para generación eléctrica viable, luego de las restricciones de gas natural desde Argentina y su posterior total suspensión del suministro. Posteriormente, en el contexto de la agenda energética de Chile, se planteó como capaz de sustituir al diésel como combustible de generación eléctrica y elemento clave para reducir los costos marginales de generación eléctrica, otorgándole un papel preponderante en la futura matriz energética de Chile.En el presente estudio se busca identificar el nivel de penetración que tendría el gas natural licuado como combustible de generación eléctrica en un horizonte de 10 años. Para esto se analizó el mercado de generación eléctrica en Chile, en cuanto al desarrollo de tecnologías de generación, como aspectos estructurales que lo caracterizan, analizando la posible existencia de prácticas anticompetitivas que pudieran estar presente y que afectaría el grado de competitividad de este mercado.Existen numerosos proyectos de generación intensivos en gas natural, que está en duda su real concreción, considerando el incremento en la demanda eléctrica, un sistema interconectado único, una nueva ley de transmisión eléctrica y costos futuros de generación, entre otros.En este estudio se intentó identificar aquellas variables que podrían ser determinantes para identificar el real desarrollo de la generación eléctrica intensiva en gas natural licuado, elaborando escenarios posibles en base a estas variables y con ello concluir el grado de penetración que podría tener el gas natural licuado y por lo tanto, también los actuales y futuros terminales de regasificación en Chile.Thesis PROPUESTA DE UNA HERRAMIENTA TECNOLÓGICA PARA APOYAR A LOS EMPRENDEDORES A DEFINIR UNA ESTRUCTURA DE DISCURSOS Y ASÍ MEJORAR SU DESEMPEÑO DE EXPOSICIÓN PARA AUMENTAR SUS POSIBILIDADES DE ÉXITO EN LA OBTENCIÓN DE FINANCIAMIENTO(2016) MONTALVA CARVAJAL, MILTON CESAR; HEVIA, LUIS FERNANDO; Universidad Tecnica Federico Santa Maria UTFSM INDUSTRIASLa presente tesis es una investigación que tiene por objetivo aplicar partes de distintas metodologías de innovación para lograr proponer una herramienta de apoyo a los emprendedores a definir una estructura de discursos y así mejorar su desempeño de exposición para poder aumentar sus posibilidades de éxito en la obtención de financiamiento.Para lograr este objetivo es que identificamos y re-definiremos el problema a través de, entrevistas, revisión bibliográfica y sus variables socio-demográficas, reconocemos a los participantes del problema, analizamos su entorno y contexto y se definió el objetivo general y objetivos específicos.Posteriormente, se definieron los perfiles de los actores relevantes del problema identificando sus necesidades, motivaciones, frustraciones, el contexto y sus variables sociodemográficas y luego establecemos el mapa de empatía para identificar que piensa y siente, que dice y hace y cuáles son sus miedos y frustraciones. Con todo este trabajo se definió el desafío para buscar soluciones que den respuesta a cada uno de los actores.Una vez definido el desafío, se inició el proceso de desarrollo de soluciones, identificando las existentes en el mercado, buscando quienes son los referentes para el proyecto, se realizó el proceso de lluvia de ideas y se consolidaron para seleccionar una de ellas.Una vez seleccionada la idea a desarrollar se procede con la confección del prototipo virtual con el fin de mostrar sus atributos a los actores relevantes y validar la solución para obtener sus comentarios, sugerencias y mejoras.Luego se realizó el análisis de factibilidad técnica y económica con expertos en desarrollo de soluciones tecnológicas y ver cuál es la mejor alternativa de desarrollo.Al finalizar el trabajo, se identifican algunas actividades claves para permitir el escalamiento de la plataforma tecnológica si se estima implementarla.Thesis ANÁLISIS DE EXPERIENCIAS PRÁCTICAS Y RESULTADOS DE REDES INTELIGENTES(2016) ESPINOZA CUELLAR, HUGO IVAN ALEJANDRO; Universidad Tecnica Federico Santa Maria UTFSM INDUSTRIASLa creciente demanda energética, en un contexto de mayor conciencia social acerca del impacto que las actividades humanas están teniendo en el mundo, está generando fuerte presión en los países para garantizar un abastecimiento confiable, seguro y sostenible, base existencial de una economía y sociedad moderna.Los avances tecnológicos están potenciando la incorporación de fuentes de energía renovables no convencionales y el desarrollo de medidas de uso eficiente de la energía. Las Redes Inteligentes (RI) están permitiendo que los consumidores sean cada vez más protagonistas en la gestión de la demanda.Las RI son un complemento virtuoso entre la red eléctrica tradicional y las tecnologías de la información y de la comunicación, que pueden controlar los flujos y adaptarse automáticamente a los cambios en la oferta y la demanda.El propósito de esta tesis es profundizar en la comprensión de las RI, su alcance y grado de desarrollo actual, así como describir las principales barreras que han impedido un despegue más rápido a nivel mundial.Las RI tienen el potencial de generar muchos beneficios a la economía de un país, favoreciendo a todos, trabajadores, consumidores, empresas y medioambiente. Estos beneficios dependerán de los objetivos estratégicos de cada país, los que podrían ser tan variados como aumentar la eficiencia, mejorar la confiabilidad, estimular las energías renovables, disminuir las emisiones o postergar inversiones. En términos económicos, los beneficios de las RI completamente desplegadas se estiman en 0,7% de PIB.No obstante, existen barreras regulatorias, tecnológicas, de estandarización, de costos de inversión, de mercado, de modelo de negocio y de apoyo, en países menos desarrollados, como Chile, que deben superarse porque están retrasando la masificación de las RI.Un objetivo específico de este trabajo es analizar experiencias prácticas de implementación de RI a nivel nacional e internacional. La cantidad de proyectos e información disponible es amplia, por lo que se presentarán algunos proyectos destacados.Al comparar el desarrollo de las RI en Estados Unidos y Europa puede observarse gran similitud. En ambas regiones existe amplio apoyo gubernamental a la implementación de tecnologías de RI, así como al desarrollo de planes pilotos de demostración. Existen fondos para subvencionar inversiones, investigación, desarrollo y capacitación. Tienen una visión compartida acerca de los aportes de las RI al sector energético en particular y a la economía en general. Van a la vanguardia en el desarrollo tecnológico.En cambio en Chile, la situación es menos dinámica. Se han ejecutado pocas experiencias, destacándose los proyectos de micro-red Esuscon en Huatacondo y SmartCity en Huechuraba, éste último enmarcado en el plan de redes inteligentes de Chilectra. Se describirán ambas experiencias.El análisis de toda la información muestra que las RI tienen una serie de desafíos comunes a nivel internacional. Además de superar las barreras tecnológicas y de estandarización ya mencionadas, está surgiendo con fuerza la necesidad de asegurar la privacidad de los clientes, no sólo protegiéndolos contra las amenazas de virus, “spam” (correo basura) y troyanos (maliciosos), sino que también contra la suplantación de identidad, seguimiento y captura de información. En Estados Unidos ya se detectó problemas con la privacidad de los datos de clientes en RI. Se ha visto vulnerada la información del estilo de vida e incluso el estado de salud de los consumidores, mediante la captura de datos de uso de electrodomésticos, sensores de movimiento y dispositivos relacionados con la medicina.En Chile, los desafíos son otros, más básicos. El primero es alinear la visión de futuro respecto a RI. Aquí el Estado tiene un rol coordinador relevante, similar al que tuvo el Ministerio de Energía en la elaboración participativa de la Política Energética. Chile debe crear un marco regulatorio adecuado para el desarrollo de las RI. Otro desafío es mejorar la normativa que fomenta la generación distribuida, aprovechando las ventajas comparativas en materia de fuentes de energía renovables no convencionales. La normativa actual no está dando los resultados esperados.Este trabajo concluye con el levantamiento de oportunidades que permitan al país enfrentar los desafíos señalados. En primer lugar está el Proyecto de Ley que establece nuevos sistemas de transmisión de energía eléctrica y crea un nuevo ente coordinador. En él se incorpora un proceso de planificación estratégica que debería promocionar nuevas tecnologías, y donde deberían tener cabida las redes inteligentes.Otra oportunidad la da el Proyecto de Ley de Eficiencia Energética, que se espera sea enviado al Congreso el segundo semestre de este año. La meta nacional es disminuir 20% el consumo proyectado de energía al año 2025 mediante iniciativas de eficiencia. Las RI son claves para este desafío por lo tanto deberían fomentarse explícitamente.Una tercera oportunidad es la “Política de Ciencia, Tecnología e Innovación en Energía” que el Gobierno se planteó como desafío desarrollar a partir de este año 2016 y que contempla procesos de planificación tecnológica estratégica, donde las RI no estarán al margen. Por último, Chile debe generar un mecanismo de transferencia de conocimientos, que permita difundir lecciones aprendidas de proyectos de RI, tal como lo hacen los países desarrollados.Thesis SIMULACIÓN NUMÉRICA DE UN FLUJO AGUA-PETROLEO EN UN INYECTOR DE TURBINA A GAS(2016) THIERS MOGGIA, NICOLÁS IGNACIO; Universidad Tecnica Federico Santa Maria UTFSM INGENIERÍA MECÁNICA; SKURTYS ., OLIVIER FERNANDCon el objetivo de disminuir las emisiones de NOx térmico y cumplir asi con lasnuevas normas de emisiones de contaminantes para las centrales térmicas, una de lasalternativas que se presentan corresponde a realizar un pre-mezclado entre el combustibley agua con el fin que esta absorba parte de la energía liberada durante la combustión,disminuyendo la temperatura de la combustión y los gases de escape e inhibiendoel mecanismo de formación de NOx térmico. Pero se ha observado que este procesogenera una inestabilidad termoacústica en la cámara de combustión, la cual genera dañossobre el inyector provocando su destrucción. En el presente trabajo se presenta unasimulación numérica del proceso de mezclado de ambos fluidos al interior de la cámarade pre-mezclado del inyector para distintos caudales mediante la implementación deun código basado en el software libre OpenFOAM para flujos turbulentos multifásicosacoplado a la ecuación de energía. se analizo las estructuras coherentes del campoturbulento desarrollado así como también se realizo una descripción de la morfología dela fase dispersa.Thesis ON CFT AND CONFORMAL TECHNIQUES IN AdS(2016) RAMIREZ KRAUSE, ISRAEL ADOLFO; Universidad Tecnica Federico Santa Maria UTFSM FISICAConformal symmetry is an essential tool for the study of string theory, critical phenomenaand interacting quantum eld theories, among other examples. In this thesis, we focuson conformal techniques for two theories: Type IIB superstring theory on an AdS5 S5background, and N = 2 theories in four dimensions.On the N = 2 theory, we will give a rst step towards the computation of superconformalblocks for mixed operators. For chiral and real half-BPS operators, their superconformalblock expansion can be achieved using chiral or harmonics superspace techniques, respectively.For more general multiplets, no general tool is available. A rst step towards this goalis to obtain the OPE for those general multiplets. In this thesis we show how to computemixed OPEs between an N = 2 stress-tensor multiplet, a chiral multiplet and a avor currentmultiplet using superspace techniques. A general bound for the central charge of interactingtheories will be obtained using the N = 2 stress-tensor multiplet OPE.On the string theory side, we propose a systematic way to compute the logarithmicdivergences of composite operators in the pure spinor description of the AdS5 S5 superstring.The computations of these divergences can be summarized in terms of a dilatation operatoracting on the local operators. We check our results with some important composite operatorsof the formalism. Finally, we construct the pure spinor AdS string using supertwistors.Thesis NUEVO MÉTODO DE MEDICIÓN DE ALTA FRECUENCIA DE LA ZONA DE SWASH BASADO EN SENSORES REMOTOS(2016) IBACETA VEGA, RAIMUNDO JAVIER; Universidad Tecnica Federico Santa Maria UTFSM OBRAS CIVILESEl entendimiento de la zona de swash es de vital importancia para la sociedad y en espec´ificode las comunidades costeras, ya que la comprensi´on de los procesos responsables de la evoluci´on dela costa a diferentes escalas de tiempo es vital para la gesti´on de playas y el sustentamiento de lascomunidades costeras. No obstante, la zona de swash es la parte de la costa menos entendida. Entrelas razones para este d´eficit se puede mencionar la complejidad de los fen´omenos f´isicos existentes,tales como las altas velocidades en una l´amina de agua de unos pocos cent´imetros de espesor, queinducen un gran transporte de sedimentos y turbulencia. Esto representa un gran desaf´io y dificultadpara la instrumentaci´on in situ, con la consiguiente falta de informaci´on para validaci´on y an´alisis. Eneste contexto, la comunidad cient´ifica ha llegado a un consenso de que la comprensi´on de esta zonadebe enfocarse en la alta frecuencia temporal, en un enfoque ola a ola.Por otro lado, durante las ´ultimas decadas las herramientas de teledetecci´on remota han progresadosignificativamente, siendo una t´ecnica muy efectiva para medir diversos procesos costeros a altafrecuencia temporal y en grandes dominios espaciales, a bajo costo.En este trabajo se propone un nuevo m´etodo de medici´on de alta frecuencia temporal de la zona deswash, basado en la disposici´on f´isica de barras morfol´ogicas circulares (”palitos”) que junto a c´amarasde video, permiten la extracci´on de series de tiempo de la superficie libre y nivel de fondo del swash,apoy´andose en la naturaleza sin´optica de la teledecci´on y en las variaciones de intensidad ´opticaspresentes en esta parte de la costa. Se presenta aqu´i la metodolog´ia utilizada, la disposici´on f´isica deelementos y recomendaciones, junto a los lugares donde la t´ecnica ha sido aplicada y el procesamientode im´agenes necesario para la extracci´on de datos. La validaci´on del m´etodo se realiza contrastandolos resultados con otros obtenidos desde instrumentos convencionales (LIDAR, sensores ultras´onicosy sensores de presi´on), apoy´andose del an´alisis estad´istico y de la comparaci´on cualitativa entre resultados,los cuales en conjunto con las caracter´isticas de los instrumentos, permiten identificar lasprincipales ventajas y limitaciones de la t´ecnica propuesta.Thesis DESARROLLO DE UN CÓDIGO DE ELEMENTOS FINITOS PARA MODELAR LA RESPUESTA SÍSMICA DE SUELOS(2016) KUNCAR GARCÍA, FELIPE ANDRÉS; ARANDA NÚÑEZ, VIVIAN CLARISA; Universidad Tecnica Federico Santa Maria UTFSM OBRAS CIVILESEn las últimas décadas los análisis unidimensionales en el dominio de la frecuencia han sido utilizados ampliamente en el estudio de la respuesta sísmica de suelos. Sin embargo, las múltiples limitaciones que presenta este tipo de análisis ha resultado en que este enfoque ha sido desplazado por los análisis en el dominio del tiempo basados en métodos numéricos (como el método de elementos finitos) y modelos constitutivos formulados en base a la teoría de plasticidad. Este enfoque se encuentra en constante desarrollo debido a la complejidad de la respuesta no lineal del suelo bajo sismos de mediana y alta intensidad. En este sentido, el desarrollo de nuevos modelos constitutivos para suelos de distintas características es un tópico de investigación recurrente en ingeniería geotécnica. En la actualidad, existe una serie de programas computacionales disponibles en el mercado para realizar este tipo de modelación, sin embargo, estos ofrecen posibilidades acotadas de análisis y un tratamiento simplificado de la interacción suelo-fluido en los poros durante la respuesta sísmica. En este contexto, este trabajo de tesis pretende iniciar el desarrollo de un código computacional que posibilite una nueva línea de investigación en el Departamento de Obras Civiles, cuya orientación sea el mejoramiento de las técnicas de modelación numérica de la respuesta sísmica de suelos saturados en el contexto geológico y sísmico nacional.En esta primera etapa de investigación se incorpora, en primer lugar, una relación constitutiva lineal elástica para la modelación del suelo. En segundo lugar, y con el propósito de considerar el comportamiento no lineal de este, se implementa el modelo constitutivo Mohr-Coulomb, basado en la teoría de plasticidad. La implementación de este modelo se lleva a cabo a través del esquema de retorno propuesto por Clausenet al. (2007) que incorpora la superficie de fluencia y el potencial plástico del modelo de manera exacta. La resolución del problema no lineal se lleva a cabo a trav´es del método de Newton-Raphson de rigidez inicial. En el caso del an´alisis est´atico, se implementaadem´as el procedimiento de correcci´on autom´atica del tama˜no del paso decarga propuesto por Van Langen & Vermeer (1990).Para realizar la integraci´on en el tiempo, en el caso del an´alisis din´amico, se implementa el m´etodo de Newmark. Este ofrece la posibilidad de utilizar esquemas de integraci´onincondicionalmente estables e incluir amortiguamiento num´erico en la soluci´on. Por otrolado, y con el prop´osito de incorporar una condici´on de borde artificial que permitatruncar lateralmente el modelo de elementos finitos, se implementa la condici´on deborde viscoso est´andar, propuesta por Lysmer & Kuhlmeyer (1969), que consiste enla inclusi´on de amortiguadores viscosos en los bordes del modelo. Con respecto a laincorporaci´on del registro s´ismico, esta se lleva a cabo a trav´es de la imposici´on deldesplazamiento del sismo en los grados de libertad horizontales de la base del modelo,utilizando para esto el m´etodo de penalizaci´on.Finalmente, el c´odigo permite la modelaci´on de suelos saturados en condici´on no drenada,condici´on que es especialmente relevante en el caso del an´alisis s´ismico. Paraesto se considera el caso completamente no drenado, en donde la formulaci´on u-p, quedescribe la interacci´on entre el esqueleto s´olido del suelo y el fluido en los poros, puede desacoplarse bajo ciertos supuestos. De esta manera, el an´alisis es separado en uno detensiones efectivas y otro de generaci´on de presiones de poros.La validaci´on del c´odigo es llevada a cabo a trav´es de diferentes ejemplos num´ericos,que involucran todas las posibilidades de an´alisis del programa. Para esto, las respuestas obtenidas mediante el c´odigo son comparadas con soluciones anal´iticas y con las respuestas obtenidas mediante un programa comercial de elementos finitos, de ampliouso, llamado Plaxis. Los resultados validan la implementaci´on desarrollada y evidencian que el c´odigo entrega resultados confiables.Como ejemplo de aplicaci´on se desarrolla la modelaci´on de la respuesta de sitio de un dep´osito de suelo ubicado en el centro de Vi˜na del Mar, sometido al terremoto del Maule del 2010, utilizando el c´odigo desarrollado. La caracterizaci´on del suelo se realiza a partir de ensayos de mec´anica de suelos y ensayos geof´isicos disponibles. A trav´es de este ejemplo se muestra que es indispensable la correcta calibraci´on de la mallade elementos finitos, as´i como de los par´ametros que definen el amortiguamiento deRayleigh. Para la modelaci´on del suelo se utiliza tanto el modelo lineal el´astico como elmodelo Mohr-Coulomb y los resultados obtenidos son comparados con los del m´etodo lineal equivalente, as´i como con el espectro de la norma de dise˜no s´ismico de edificios para el caso en estudio.El c´odigo desarrollado representa solo una primera etapa, ya que se espera que este siga evolucionando en trabajos futuros. Teniendo esto en cuenta, y en base al estudio realizado, se proponen futuras lineas de investigaci´on y desarrollo que permitan superarlas limitaciones identificadas y extender las capacidades del programa.Thesis METODOLOG´IA PARA EL DISEÑO DE UNA RED DE SENSORES DE TSUNAMI(2016) MEZA ARAYA, JOAQUÍN ALEJANDRO; Universidad Tecnica Federico Santa Maria UTFSM OBRAS CIVILESRecientes eventos tsunamig´enicos han demostrado la necesidad de mejorar la confiabilidad en lossistemas de alerta para este tipo de fen´omenos. Los m´etodos tradicionales han consistido en basesde datos de tsunamis con escenarios pre-calculados (Ozer et al., 2016 ) debido al escaso tiempo derespuesta entre la generaci´on y el arribo del tsunami a la costa, donde la elevaci´on inicial de la superficielibre del tsunami se estima a partir de una gama arbitraria de magnitudes y ubicaciones del terremoto.T´ecnicas de inversi´on de tsunami podr´ian proporcionar una alternativa sin la necesidad de establecersupuestos respecto a la geometr´ia de la falla y magnitud del sismo, mediante una r´apidaestimaci´on de la deformaci´on inicial de la superficie libre. Esta ventaja es considerable respecto a lasm´etodos convencionales, ya que obtener los datos s´ismicos no es un proceso instant´aneo y a menudoes traducido de manera inexacta a los datos del tsunami (Wei et al., 2014 ). Es probable que unametodolog´ia robusta comprender´a una combinaci´on de las anteriormente mencionadas.En relaci´on al ´ultimo m´etodo, s´olo unos pocos pa´ises tienen la densa red de sensores necesariospara estimar las deformaciones iniciales de la superficie libre de un tsunami. Sin embargo, podr´ia serde gran inter´es establecer el n´umero m´inimo de sensores necesarios para proporcionar una estimaci´onrazonable, teniendo en cuenta la precisi´on de los resultados y costos generales. Lo anterior es cr´iticopara contar con dicha herramienta en pa´ises en vias de desarrollo, como es el caso de Chile. Debidoa esto ´ultimo, en el presente trabajo se propone una metodolog´ia sistem´atica para determinar elposicionamiento ´optimo de los sensores en el norte de Chile debido a las ventanas sismicas de la zona,minimizando el n´umero de estos y la redundancia de los datos.El primer paso de esta metodolog´ia consiste en la creaci´on de una base de datos de las funcionesde Green (Tsushima et al., 2009 ). Esto procedimiento se basa en la propagaci´on de tsunamis“elementales” utilizando las ecuaciones lineales de onda larga (Satake et al., 1995 ) desde un conjuntode fuentes unitarias de tsunami a una serie de puntos de pron´ostico (i.e. funciones de Green).Luego, se seleccionan como escenarios extremos los terremotos esperados en el norte de Chile, zonacon alto potencial tsunamig´enico (Cienfuegos et al., 2014 ). Una amplia gama de arreglo de sensores,establecidos con base en criterios t´ecnicos, se prueban para realizar la inversi´on. Posteriormente, laspredicciones obtenidas con los diferentes arreglos de sensores son comparadas mediante una funci´onde coste que incluye varios par´ametros para cuantificar la capacidad de predicci´on. Entre ellos, se considerael tiempo de arribo, la amplitud m´axima y un ajuste global. La red de sensores que proporcionala configuraci´on ´optima es seleccionada como candidata. Finalmente, dicha red se prueba utilizandoescenarios intermedios y reales para garantizar as´i la calidad de la predicci´on en todos los puntos depron´ostico.Los resultados muestran que una configuraci´on que contiene s´olo tres sensores es capaz de proporcionar estimaciones precisas de los tiempos de arribo y amplitudes de la primera onda. En t´erminosgenerales, es posible observar una fuerte correlaci´on entre la ubicaci´on de los sensores y los estimadoresde error. A modo de ejemplo, la estimaci´on de los tiempos de arribo es de mayor calidad cuando almenos un sensor se encuentra situado en frente de los puntos de pron´ostico. En cambio, con respectoa la amplitud m´axima y el ajuste global, mejores pron´osticos son obtenidos cuando los sensores est´ansituados en la zona de solevantamiento o frente a ´esta.Esta metodolog´ia ofrece un gran potencial para ser una herramienta que permita definir la ubicaci´onde posibles sensores de presi´on, de esta forma se asegura una buena calidad de las prediccionesde tsunami al utilizar la t´ecnica de inversi´on. Ademas, la metodolog´ia aqu´i propuesta tiene un granpotencial para mejorar la evaluaci´on de riesgo en tiempo real, apoyando a herramientas de toma dedecisiones en sistemas de alerta temprana.