<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns="http://purl.org/rss/1.0/" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel rdf:about="https://hdl.handle.net/11000/661">
    <title>DSpace Colección :</title>
    <link>https://hdl.handle.net/11000/661</link>
    <description />
    <items>
      <rdf:Seq>
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39533" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39524" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39523" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39510" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39509" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39508" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39507" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39503" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39502" />
        <rdf:li rdf:resource="https://hdl.handle.net/11000/39501" />
      </rdf:Seq>
    </items>
    <dc:date>2026-04-04T11:49:58Z</dc:date>
  </channel>
  <item rdf:about="https://hdl.handle.net/11000/39533">
    <title>Diseño, implementación y entrenamiento de interfaces cerebro-máquina basadas en eventos de la marcha para control de exoesqueletos</title>
    <link>https://hdl.handle.net/11000/39533</link>
    <description>Título : Diseño, implementación y entrenamiento de interfaces cerebro-máquina basadas en eventos de la marcha para control de exoesqueletos
Autor : Quiles Zamora, Vicente
Resumen : Las enfermedades que afectan las funciones motoras, como la lesión de la médula (por sus siglas, LM) y el accidente cerebrovascular (por sus siglas, ACV), representan desafíos significativos para la salud pública a nivel mundial. La LM ocurre como resultado de un traumatismo que produce un daño total o incompleto (por sus siglas, LMi) sobre las neuronas motoras del sistema nervioso central, afectando los nervios que transportan los mensajes entre el cerebro y el resto del cuerpo, lo que genera una degradación total o parcial de la función motora. Por otro lado, el ACV ocurre cuando el flujo sanguíneo en una zona del cerebro se ve comprometido, ya sea por una obstrucción o por la rotura de un vaso sanguíneo, provocando muerte celular que puede causar degeneración motora y daño cognitivo. Un dato alarmante es que, cada año, 15 millones de personas sufren un ACV, de las cuales cinco millones fallecen y otras cinco millones quedan con discapacidades permanentes. De manera similar, se estima que más de 15 millones de personas viven con LM en todo el mundo, enfrentando no solo limitaciones físicas, sino también barreras sociales que agravan su condición.&#xD;
Ambas enfermedades presentan cierto pronóstico de mejora e, incluso, dependiendo del daño causado, es posible recuperar la función perdida de manera completa con la rehabilitación adecuada. Una intervención temprana e intensiva, adaptada al grado de afectación y a las necesidades específicas del paciente, es crucial para favorecer la readaptación y la recuperación de habilidades. Durante este proceso, se generan nuevas conexiones a nivel cerebral y en menor grado en las neuronas de la médula espinal, en un proceso conocido como plasticidad neuronal. Las terapias robóticas y neuromotoras ofrecen un enfoque prometedor al permitir repeticiones controladas y prolongadas, lo cual es fundamental para mejorar la función motora. Además, en las etapas en las que el paciente busca recuperar su independencia, estas herramientas pueden ser un recurso valioso para la asistencia y el apoyo en su vida diaria.&#xD;
Entre las herramientas robóticas y neuromotoras más utilizadas en rehabilitación se incluyen exoesqueletos, sistemas de estimulación eléctrica y dispositivos de realidad virtual. Los exoesqueletos, en particular, se destacan por su capacidad de asistencia y rehabilitación, pudiendo ser controlados de diversas formas, como mediante un joystick, comandos de voz o incluso por la actividad muscular o cerebral. Cerrar el bucle de control a través de la actividad cerebral supone una forma intuitiva de recuperar las funciones perdidas. Esta actividad cerebral se registra en la superficie del cuero cabelludo mediante electrodos no invasivos, utilizando una técnica llamada electroencefalografía (por sus siglas, EEG) y se convierte en comandos de control para el manejo de exoesqueletos robóticos. Este tipo de sistemas, que establecen una comunicación entre la persona y la máquina, son conocidos como interfaces cerebro-máquina (BMI, por sus siglas en inglés Brain-Machine Interface), pueden ser diseñados con fines de rehabilitación, asistencia o ambos. Dependiendo de su configuración, el control puede basarse en distintos tipos de comandos neuromotores, que se clasifican en dos categorías: eventos externos, que responden a estímulos sensoriales del entorno, y eventos internos, como la intención motora del usuario. En este último caso, se emplean técnicas como la imaginación motora (MI, por sus siglas en inglés Motor Imagery) o la intención, y ambas suelen estar caracterizadas por un cambio en los ritmos cerebrales alfa y beta.&#xD;
La presente tesis se desarrolla en dos líneas de investigación. La primera se centra en el diseño de protocolos de análisis y clasificación para una aplicación en tiempo real capaz de decodificar, a través del EEG, las acciones del sujeto para el control de exoesqueletos robóticos. Para lograr una decodificación natural de las acciones del sujeto (no forzada ni artificial), se ha optado por el paradigma de intención, el cual se basa en decodificar la actividad relacionada con la intención motora momentos antes de que el sujeto realice la acción (estados de conciencia previos a la ejecución del acto motor). Inicialmente, se diseñaron dos BMI: una para detectar la intención de cambiar de velocidad y otra para detectar la intención de cambiar de dirección. La primera fue probada con éxito utilizando un exoesqueleto de miembro inferior, permitiendo a los sujetos cambiar de velocidad a voluntad. En el segundo caso, aunque no se disponía de un exoesqueleto de miembro inferior que permitiese cambiar de dirección, la BMI de dirección fue validada en tiempo real mediante la simulación de la intención de giro en una pantalla. Además, se diseñó una tercera BMI para detectar la intención del usuario de parar ante un obstáculo inesperado, basada en estímulos externos y potenciales de error. Cuando se detectaba esta intención, se activaba automáticamente el comando de parada del dispositivo. Esta tercera BMI fue probada de forma efectiva con pacientes con LMi.&#xD;
Por último, la segunda línea se basa en el diseño de un protocolo de estimulación transcraneal por corriente directa (tDCS, por sus siglas en inglés transcranial Direct Current Stimulation) del área cerebral relacionada con el procesamiento de información motora del miembro inferior. El objetivo principal es evaluar si se produce una mejora funcional en la recuperación física, además de evaluar si esto se produce a través de los mecanismos de plasticidad neuronal y tienen repercusión en la rapidez y eficiencia del aprendizaje motor dentro de un sistema BMI. En la presente tesis se plantean dos estudios que aportan evidencia sobre este propósito. En primer lugar, se propone un trabajo con pacientes de ACV, en el que se combina una terapia de estimulación con una BMI con retroalimentación visual (feedback). Tras un análisis de los resultados se discuten las limitaciones y posibles mejoras para este tipo de terapias neuromotoras en el ámbito clínico. Posteriormente, se plantea un análisis y revisión de la bibliografía para ayudar al diseño y mejora de estos protocolos de estimulación.; Motor function disorders, such as spinal cord injury (SCI) and stroke, represent significant public health challenges worldwide. SCI results from trauma that causes complete or incomplete damage (iSCI) to the motor neurons of the central nervous system, affecting the nerves that transmit messages between the brain and the rest of the body. This leads to a total or partial degradation of motor function. On the other hand, a stroke occurs when blood flow to a región of the brain is compromised, either by an obstruction or the rupture of a blood vessel, causing cell death that can result in motor degeneration and cognitive impairment. An alarming statistic is that each year, 15 million people suffer a stroke, of which five million die and another five million are left with permanent disabilities. Similarly, it is estimated that over 15 million people live with SCI worldwide, facing not only physical limitations but also social barriers that exacerbate their condition.&#xD;
Both conditions have a certain prognosis for improvement, and depending on the extent of the damage, it is possible to fully recover lost functions with appropriate rehabilitation. Early and intensive intervention, tailored to the degree of impairment and the specific needs of the patient, is crucial to promote readjustment and the recovery of skills. During this process, new connections are formed at the cerebral level and, to a lesser extent, in the neurons of the spinal cord, in a process known as neuronal plasticity. Robotic and neuromotor therapies offer a promising approach by allowing controlled and prolonged repetitions, which are essential for improving motor function. Additionally, in the stages where the patient seeks to regain independence, these tools can be a valuable resource for assistance and support in daily life.&#xD;
Among the most commonly used robotic and neuromotor tools in rehabilitation are exoskeletons, electrical stimulation systems, and virtual reality devices. Exoskeletons, in particular, stand out for their ability to provide assistance and rehabilitation, and they can be controlled in various ways, such as through a joystick, voice commands, or even by muscular or brain activity. In the latter case, the electrical activity recorded on the surface of the scalp using non-invasive electrodes in a technique called electroencephalography (EEG) is converted into control commands for managing robotic exoskeletons.&#xD;
Robotic and neuromotor tools frequently used in rehabilitation include exoskeletons, electrical stimulation systems, and virtual reality devices. Exoskeletons, in particular, are notable for their assistance and rehabilitation capabilities, and they can be controlled in various ways, such as with a joystick, voice commands, or even through muscular or brain activity. Closing the control loop through brain activity represents an intuitive way to recover lost functions. This brain activity is recorded on the scalp’s surface using non-invasive electrodes through a technique called electroencephalography (EEG) and is converted into control commands for managing robotic exoskeletons. These systems, which establish communication between the person and the machine, are known as brain-machine interfaces (BMI) and can be designed for rehabilitation, assistance, or both. Depending on their configuration, control can be based on different types of neuromotor commands, which are classified into two categories: external events, which respond to sensory stimuli from the environment, and internal events, such as the user’s motor intention. In the latter case, techniques like motor imagery (MI) or intention are employed, both typically characterized by changes in alpha and beta brain rhythms.&#xD;
This thesis is developed along two lines of research. The first focuses on designing analysis and classification protocols for a real-time application capable of decoding the subject’s actions through EEG for controlling robotic exoskeletons. To achieve a natural decoding of the subject’s actions (not forced or artificial), the intention paradigm was chosen, which is based on decoding activity related to motor intention moments before the subject performs the action (states of consciousness preceding the execution of the motor act). Initially, two BMIs were designed: one to detect the intention to change speed and another to detect the intention to change direction. The first was successfully tested using a lower limb exoskeleton, allowing subjects to change speed at will. In the second case, although a lower limb exoskeleton capable of changing direction was not available, the direction BMI was validated in real-time by simulating the intention to turn on a screen. Additionally, a third BMI was designed to detect the user’s intention to stop upon encountering an unexpected obstacle, based on external stimuli and error potentials. When this intention was detected, the device’s stop command was automatically activated. This third BMI was effectively tested with patients with incomplete SCI.&#xD;
Lastly, the second line of research is based on designing a protocol for transcranial direct current stimulation (tDCS) of the brain area related to processing motor information of the lower limb. The main objective is to evaluate whether functional improvement in physical recovery occurs, as well as to assess if this improvement is achieved through neuronal plasticity mechanisms and impacts the speed and efficiency of motor learning within a BMI system. This thesis presents two studies that provide evidence for this purpose. Firstly, a study with stroke patients is proposed, combining stimulation therapy with a BMI that includes visual feedback. After analyzing the results, the limitations and potential improvements for these types of neuromotor therapies in the clinical setting are discussed. Subsequently, a literature analysis and review are presented to aid in the design and enhancement of these stimulation protocols.</description>
    <dc:date>2026-03-16T08:29:23Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39524">
    <title>5G NR V2X Communications for Connected and Automated Vehicles</title>
    <link>https://hdl.handle.net/11000/39524</link>
    <description>Título : 5G NR V2X Communications for Connected and Automated Vehicles
Autor : Molina Galán, Alejandro
Resumen : Los vehículos autónomos dependen de sensores integrados para conducir con poca o ninguna intervención humana. En los últimos años, el rendimiento de los sensores en los vehículos autónomos ha mejorado significativamente en términos de alcance de percepción y precisión de detección. Sin embargo, la efectividad de los sensores aún puede verse comprometida por condiciones climáticas adversas, obstáculos u otros factores, lo que puede afectar negativamente a la seguridad y eficiencia de los vehículos autónomos. Los vehículos conectados y autónomos pueden mitigar estos problemas a través de comunicaciones V2X (Vehicle-to-Everything), que permiten a los vehículos compartir datos entre sí. Gracias a las comunicaciones V2X, los vehículos conectados y autónomos pueden implementar servicios V2X avanzados como la percepción cooperativa y la conducción cooperativa para mejorar tanto la seguridad como la eficiencia del tráfico. La percepción cooperativa implica el intercambio de datos percibidos por los sensores sobre el entorno de conducción a través de las comunicaciones V2X. Esto permite a los vehículos complementar los datos obtenidos con sus sensores a bordo con los datos obtenidos por los sensores de los vehículos que tienen alrededor e intercambiados mediante V2X. La conducción cooperativa permite que los vehículos conectados y autónomos compartan sus intenciones de conducción y coordinen sus maniobras, lo cual es clave para realizar las maniobras de una manera más segura y eficiente.&#xD;
El 3rd Generation Partnership Project (3GPP) publicó el estándar 5G NR (New Radio) V2X en la Release 16. El estándar 3GPP 5G NR V2X (o NR V2X) soporta comunicaciones directas o sidelink (SL) de Vehículo a Vehículo (V2V) y de Vehículo a Infraestructura (V2I) y complementa a LTE V2X (es decir, el predecesor de NR V2X) que fue diseñado para servicios V2X básicos de seguridad vial. NR V2X ha sido diseñado para soportar servicios V2X avanzados para la conducción conectada y autónoma (como la percepción y conducción cooperativa) que tienen requisitos estrictos, por ejemplo, en términos de latencia y fiabilidad. Con este objetivo, NR V2X introduce dos modos de operación: modo 1 y modo 2. En el modo 1, la infraestructura celular gestiona y selecciona los recursos de comunicación para cada comunicación SL, mientras que en el modo 2, los vehículos seleccionan y gestionan los recursos radio de forma autónoma sin el apoyo de la infraestructura celular. En el modo 2, los vehículos también pueden reservar recursos radio de forma autónoma para sus futuras transmisiones de paquetes anunciando la reserva de recursos radio a los otros vehículos.&#xD;
La fase inicial de esta tesis coincide con la fase final del proceso de estandarización de NR V2X. Cuando se publica un nuevo estándar, es esencial estudiar su funcionalidad y evaluar su rendimiento. La evaluación del rendimiento proporciona los conocimientos necesarios para diseñar mejoras. En este contexto, esta tesis estudia, evalúa y mejora el estándar NR V2X, centrándose en la evaluación a nivel de sistema de las comunicaciones NR V2X modo 2. Esta tesis se centra en NR V2X modo 2 ya que asegura que la provisión de servicios V2X no esté limitada por la disponibilidad de cobertura celular.&#xD;
En la fase inicial de esta tesis no existía en la comunidad investigadora un simulador de código abierto de NR V2X modo 2. Esta tesis ha implementado un simulador de NR V2X modo 2 que cumple con los estándares 3GPP y sigue las directrices de evaluación del 3GPP. Este simulador ha sido utilizado en esta tesis para evaluar el estándar NR V2X modo 2 y las diferentes propuestas.&#xD;
Esta tesis primero se enfoca en analizar la eficiencia de NR V2X modo 2 para soportar servicios V2X avanzados. Estos servicios generan tráfico V2X aperiódico de tamaño variable según el 3GPP. Estudios anteriores demostraron que los patrones de tráfico variable impactan significativamente en la operación y el rendimiento de LTE V2X modo 4 (es decir, el análogo de NR V2X modo 2) debido a ciertas ineficiencias de la MAC (Medium Access Control). NR V2X modo 2 introduce nuevas características MAC para soportar servicios V2X avanzados para la conducción conectada y autónoma. Una de estas características es el mecanismo de re-evaluación o re-evaluation mechanism diseñado para detectar y evitar colisiones de paquetes. El mecanismo de re-evaluación es un mecanismo obligatorio que chequea antes de cada transmisión si los recursos seleccionados aún están disponibles. Si otro vehículo ha reservado los mismos recursos, el mecanismo de re-evaluación selecciona nuevos recursos. Estudios previos habían evaluado el rendimiento de NR V2X modo 2 con diferentes patrones de tráfico. Sin embargo, estos estudios no implementaban el mecanismo de re-evaluación. Además, estos estudios solo consideraban tráfico V2X periódico o aperiódico de tamaño fijo. Sin embargo, las directrices de la metodología de evaluación del 3GPP para NR V2X recomiendan modelos de generación de tráfico para servicios V2X avanzados que también incluyen tráfico de tamaño variable. El estudio realizado en esta tesis representa entonces la primera evaluación existente en la comunidad investigadora de una implementación completamente conforme al estándar NR V2X modo 2 con los patrones de tráfico recomendados por el 3GPP para servicios V2X avanzados. Este estudio muestra que NR V2X modo 2 aún experimenta desafíos a nivel MAC para soportar eficientemente tráfico aperiódico de tamaño variable.&#xD;
Esta tesis también realiza un análisis y evaluación en profundidad del impacto del mecanismo de re-evaluación en la operación y el rendimiento de NR V2X modo 2. Este estudio es el primero que analiza cuándo y por qué el mecanismo de re-evaluación es efectivo o no en la detección y prevención de colisiones de paquetes. El estudio llevado a cabo en esta tesis considera vehículos transmitiendo paquetes periódicos o aperiódicos de tamaño fijo o variable, siguiendo las directrices del 3GPP. El estudio muestra que el mecanismo de re-evaluación evita de forma efectiva las colisiones de paquetes con tráfico periódico de tamaño fijo, pero su impacto es pequeño ya que el número de colisiones de paquetes detectadas por el mecanismo de re-evaluación es bajo con este tráfico. Con tráfico aperiódico de tamaño variable, la efectividad del mecanismo de re-evaluación disminuye. NR V2X modo 2 permite que los vehículos realicen retransmisiones (es decir, más de una transmisión por paquete). La efectividad del mecanismo de re-evaluación para detectar y evitar colisiones mejora cuando se consideran las retransmisiones. Sin embargo, el impacto del mecanismo de re-evaluación en el rendimiento de NR V2X modo 2 es pequeño ya que el beneficio de las retransmisiones prevalece sobre las ganancias obtenidas con las colisiones de paquetes evitadas con el mecanismo de re-evaluación.&#xD;
El mecanismo de re-evaluación chequea antes de cada transmisión si los recursos seleccionados aún están disponibles (es decir, si otro vehículo no los ha reservado). Si otro vehículo ha reservado los mismos recursos, el mecanismo de re-evaluación selecciona nuevos recursos. El estándar 3GPP permite diferentes estrategias para determinar cuándo y con qué frecuencia realizar estos chequeos asociados con el mecanismo de re-evaluación.&#xD;
Esta tesis también evalúa el impacto de diferentes estrategias de chequeo del mecanismo de re-evaluación en el rendimiento de NR V2X modo 2 con tráfico aperiódico de tamaño variable. En particular, esta tesis evalúa dos estrategias diferentes propuestas por el estándar 3GPP para NR V2X modo 2 (que esta tesis denomina estrategias one-slot y all-slots). La evaluación llevada a cabo en esta tesis muestra que las dos estrategias del estándar presentan un equilibrio entre la latencia de transmisión y el coste computacional del mecanismo de reevaluación. Esta tesis propone entonces una estrategia alternativa (estrategia first-slot) que reduce la latencia de transmisión y el coste computacional sin degradar la fiabilidad de las transmisiones de NR V2X modo 2.&#xD;
Esta tesis muestra que el mecanismo de re-evaluación no es completamente efectivo para evitar las colisiones de paquetes generadas por tráfico aperiódico de tamaño variable porque muchas de las colisiones detectadas finalmente no ocurren, y seleccionar nuevos recursos con el mecanismo de re-evaluación aumenta el riesgo de colisiones de paquetes. Para abordar esta ineficiencia, esta tesis propone un mecanismo de re-evaluación selectivo (selective re-evaluation mechanism) que solo selecciona nuevos recursos cuando el vehículo está seguro de que una colisión detectada va a ocurrir, lo cual es el caso cuando la colisión se detecta con una reserva para una retransmisión de un paquete. El mecanismo de reevaluación selectivo es por lo tanto aplicable solo cuando NR V2X modo 2 está configurado con retransmisiones. Esta tesis muestra que el mecanismo de re-evaluación selectivo propuesto mejora la fiabilidad y la latencia de las comunicaciones NR V2X modo 2.&#xD;
Esta tesis también propone la técnica V2X Rebroadcasting, que puede aplicarse cuando NR V2X modo 2 está configurado para realizar una transmisión por paquete (es decir, sin retransmisiones). V2X Rebroadcasting mejora la eficiencia de la MAC de NR V2X para cualquier mensaje y patrón de tráfico V2X. Una de las ineficiencias predominantes que NR V2X modo 2 experimenta con el tráfico aperiódico de tamaño variable es causada por reservas no utilizadas. Las reservas no utilizadas ocurren cuando un vehículo reserva un recurso radio, pero finalmente no lo usa porque no tiene un paquete para transmitir en el momento de la reserva. El vehículo no puede informar a otros vehículos sobre los recursos que reserva para la siguiente transmisión, y esto aumenta el riesgo de colisiones de paquetes. Para reducir este riesgo, V2X Rebroadcasting permite a los vehículos retransmitir o rebroadcastear paquetes de otros vehículos en reservas no utilizadas. Al hacerlo, el vehículo puede utilizar el paquete rebroadcasteado para reservar recursos para su próxima transmisión, y por lo tanto reduce el riesgo de colisiones de paquetes. Además, la propuesta aumenta la fiabilidad de los paquetes rebroadcasteados. Los resultados demuestran que V2X Rebroadcasting reduce la probabilidad de colisiones de paquetes y mejora la fiabilidad de las comunicaciones V2X en comparación con el estándar NR V2X modo 2.; Automated vehicles rely on embedded sensors to drive with low or no human intervention. In recent years, the performance of sensors in automated vehicles has greatly improved in terms of perception range and detection accuracy. However, the effectiveness of sensors can still be compromised by adverse weather conditions, obstacles, or other factors, which can negatively impact the safety and efficiency of automated vehicles. Connected and Automated Vehicles (CAVs) can mitigate these issues through V2X (Vehicle-to-Everything) communications, which allow vehicles to share data with each other. Thanks to V2X communications, CAVs can implement advanced V2X services such as cooperative perception and cooperative driving to enhance both traffic safety and efficiency. Cooperative perception involves the exchange of data perceived by the sensors about the driving environment through V2X communications. This allows vehicles to complement the data obtained with their on-board sensors with data obtained by the sensors of surrounding vehicles. Cooperative driving enables CAVs to share their driving intentions and coordinate their manoeuvres which is key to achieve a smoother and safer traffic flow.&#xD;
The 3rd Generation Partnership Project (3GPP) published the 5G NR (New Radio) V2X standard in Release 16. The 3GPP 5G NR V2X (or NR V2X) standard supports direct or sidelink (SL) Vehicle-to-Vehicle (V2V) and Vehicle-to-Infrastructure (V2I) communications and complements LTE V2X (i.e. the NR V2X predecessor) that was designed for basic awareness services. NR V2X has been designed to support advanced V2X services for connected and automated driving (such as cooperative perception and driving) which have stringent requirements, e.g. in terms of latency and reliability. To this aim, NR V2X introduces two operating modes: mode 1 and mode 2. In mode 1, the celular infrastructure manages and selects the communication resources for each SL communication, while in mode 2, vehicles autonomously select and manage radio resources without the support of the cellular infrastructure. In mode 2, vehicles can also autonomously reserve radio resources for their future packet transmissions by announcing the reservation of radio resources to the other vehicles.&#xD;
The initial phase of this thesis coincides with the final phase of the NR V2X standardization process. When a new standard is published, it is essential to study its functionality and evaluate its performance. Performance evaluation provides the necessary insights to design improvements. In this context, this thesis studies, evaluates, and improves the NR V2X standard, with a focus on the system-level evaluation of NR V2X mode 2 communications. This thesis focuses on NR V2X mode 2 as it ensures that V2X service provisioning is not limited by the availability of cellular coverage.&#xD;
At the initial phase of this thesis, there were no open-source NR V2X mode 2 simulators available in the community. This thesis has included the implementation of an NR V2X mode 2 simulator that adheres to the 3GPP standards and follows the 3GPP evaluation guidelines. This simulator has been utilized in this thesis to evaluate the NR V2X mode 2 standard and the different proposals.&#xD;
This thesis first focuses on analyzing the efficiency of NR V2X mode 2 to support advanced V2X services. These services are expected to generate aperiodic V2X traffic of variable size according to 3GPP. Variable traffic patterns were shown to significantly impact the operation and performance of LTE V2X mode 4 (i.e. the counterpart of NR V2X mode 2) due to certain MAC (Medium Access Control) inefficiencies. NR V2X mode 2 introduces novel MAC features to support advanced V2X services for connected and automated driving. One of these features is the re-evaluation mechanism designed to detect and avoid packet collisions. The re-evaluation mechanism is a mandatory MAC feature that checks before every transmission if the selected resources are still available. If another vehicle has reserved the same resources, the re-evaluation mechanism selects new resources. Previous studies had evaluated the performance of NR V2X mode 2 under different traffic patterns. However, these studies did not implement the re-evaluation mechanism. In addition, these studies only considered periodic or aperiodic V2X traffic of fixed size. However, the 3GPP evaluation methodology guidelines for NR V2X recommend traffic generation models for advanced V2X services that also include traffic of variable size. The study conducted in this thesis is then the first evaluation of a fully standard compliant implementation of NR V2X mode 2 under the traffic patterns recommended by 3GPP for advanced V2X services. This study shows that NR V2X mode 2 still faces MAC challenges to efficiently support aperiodic traffic of variable size.&#xD;
This thesis also conducts an in-depth analysis and evaluation of the impact of the reevaluation mechanism on the operation and performance of NR V2X mode 2. This study is the first that analyzes when and why re-evaluation is effective or not in detecting and avoiding packet collisions. The analysis considers vehicles transmitting periodic or aperiodic packets of fixed or variable size, following 3GPP guidelines. The study shows reevaluation effectively avoids packet collisions with periodic traffic of fixed size, but its impact is small since the number of packet collisions detected by re-evaluation is low with this traffic. With aperiodic traffic of variable size, the effectiveness of re-evaluation decreases. NR V2X mode 2 allows vehicles to perform retransmissions (i.e. more than one transmission per packet). The effectiveness of re-evaluation to detect and avoid collisions improves when retransmissions are considered. However, the impact of re-evaluation on the performance of NR V2X mode 2 is small since the benefit of retransmissions prevails over the gains obtained with the packet collisions avoided with re-evaluation.&#xD;
The re-evaluation mechanism checks before every transmission whether the selected resources are still available (i.e., they have not been reserved by another vehicle). If another vehicle has reserved the same resources, the re-evaluation mechanism selects new resources. The 3GPP standard allows different strategies for when and how often to perform these checks associated with the re-evaluation mechanism. This thesis also evaluates the impact of different re-evaluation check strategies on the performance of NR V2X mode 2 under aperiodic traffic of variable size. In particular, it evaluates two different strategies proposed by the 3GPP standard for NR V2X mode 2 (that this thesis names one-slot and all-slots strategies). The evaluation reveals that the two standardized strategies balance transmisión latency and the computational cost of re-evaluation. This thesis then proposes an alternative strategy (first-slot strategy) that reduces transmission latency and computational cost without degrading the reliability of NR V2X mode 2 transmissions.&#xD;
This thesis shows that re-evaluation is not fully effective in avoiding packet collisions generated by aperiodic traffic of variable size because many of the detected collisions ultimately do not happen, and selecting new resources with the re-evaluation mechanism increases the risk of packet collisions. To address this inefficiency, this thesis proposes a selective re-evaluation mechanism that only selects new resources when the vehicle is certain that a detected collision is going to occur. This is only the case when the collision is detected with a reservation for a retransmission of a packet. The selective re-evaluation mechanism is therefore applicable only when NR V2X mode 2 is configured with retransmissions. This thesis shows that the proposed selective re-evaluation mechanism improves the reliability and latency of 5G NR V2X mode 2 communications.&#xD;
This thesis also proposes the V2X Rebroadcasting scheme, which can be applied when NR V2X mode 2 is configured to perform one transmission per packet (i.e. without retransmissions), while still improving the efficiency of the NR V2X MAC for any V2X message and traffic patterns. One of the predominant inefficiencies that NR V2X mode 2 experiences under aperiodic traffic of variable size is caused by unutilized reservations. Unutilized reservations occur when a vehicle reserves a radio resource, but does not finally use it because it has no packet to transmit at the time of the reservation. The vehicle cannot inform other vehicles about the resources it reserves for the following transmission, and this increases the risk of packet collisions. To reduce this risk, V2X Rebroadcasting allows vehicles to rebroadcast packets from other vehicles in detected unutilized reservations. By doing so, the vehicle can utilize the rebroadcasted packet to reserve resources for its next transmission, and hence reduces the risk of packet collisions. In addition, the proposal increases the reliability of rebroadcasted packets. The results demonstrate that V2X Rebroadcasting reduces the probability of packet collisions and improves the reliability of V2X communications compared to the standard NR V2X mode 2.</description>
    <dc:date>2026-03-13T11:04:16Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39523">
    <title>Student eXperience Evaluation with Cultural Aspects</title>
    <link>https://hdl.handle.net/11000/39523</link>
    <description>Título : Student eXperience Evaluation with Cultural Aspects
Autor : Matus Palma, Nicolás Esteban
Resumen : Este documento presenta un análisis en profundidad del trabajo realizado a lo largo del programa de posgrado, centrándose en el ámbito de la Experiencia del Estudiante (SX). El concepto de SX representa una instancia especializada de la Experiencia del Consumidor (CX), en la que el "cliente" es el estudiante que cursa estudios superiores. Una gestión eficaz de la SX tiene el potencial de mejorar significativamente la satisfacción del estudiante, elevando así la calidad percibida de las Instituciones de Educación Superior (IES). Dada la notable ausencia de metodologías de evaluación establecidas para la SX, este estudio se propuso desarrollar un enfoque integral y holístico para la evaluación de la SX. Dicho enfoque permite identificar tanto las debilidades como las fortalezas inherentes a los servicios educativos ofrecidos por las IES.&#xD;
Nuestros objetivos de investigación se centraron en identificar los conceptos y factores clave relacionados con la SX, desarrollar un Modelo de Experiencia del Estudiante inclusivo y crear una metodología de evaluación validada y adaptada al contexto de la educación superior. Reconociendo la falta de integración de aspectos culturales en las soluciones de SX existentes, nuestro estudio adopta una perspectiva culturalmente informada. Para lograr esto, realizamos una revisión sistemática de la literatura (SLR), la cual facilitó la identificación de las dimensiones y factores tradicionales que definen el concepto de SX. Basándonos en estos conocimientos, formulamos nuestra propia definición de SX y, posteriormente, buscamos dimensiones y factores culturales relevantes en la literatura existente para consolidar un modelo de SX más integral que incorpore estos aspectos culturales.&#xD;
El desarrollo de nuestro modelo de SX se basó en modelos culturales ampliamente reconocidos y validados, asegurando una base teórica sólida. Este modelo de SX enriquecido culturalmente sirvió como base para crear nuestra metodología de evaluación de SX, la cual sometimos a un proceso de juicio de expertos para su validación. A través de este proceso, expertos en el campo de la educación superior y la experiencia del consumidor proporcionaron valiosas opiniones, asegurando la credibilidad, relevancia y aplicabilidad de la metodología de evaluación propuesta en diversos entornos educativos.&#xD;
Como parte de nuestro plan de estudios de posgrado, presentamos una versión preliminar de esta metodología de evaluación, junto con un plan de trabajo detallado que describe su implementación y posibles aplicaciones. Además, discutimos futuras oportunidades para ampliar y refinar el modelo de SX propuesto, subrayando la importancia de la inclusión cultural para mejorar la Experiencia del Estudiante en general. Esta investigación realiza una contribución significativa a los campos de la Experiencia del Estudiante, la Experiencia del Consumidor, la Educación Superior y la integración de Aspectos Culturales, ofreciendo un Modelo de Experiencia del Estudiante y una Metodología de Evaluación validados, que tienen un gran potencial para futuras aplicaciones y desarrollos.; This document presents an in-depth analysis of the work conducted throughout the postgraduate program, focusing on the domain of Student eXperience (SX). The SX concept represents a specialized instance of Customer eXperience (CX), wherein the "customer" is the student engaged in higher education. Effective management of the SX has the potential to significantly enhance student satisfaction, thereby elevating the perceived quality of Higher Education Institutions (HEIs). Given the notable absence of established SX evaluation methodologies, this study set out to develop a comprehensive and holistic approach to SX evaluation. Such an approach enables the identification of both weaknesses and strengths inherent in educational services offered by HEIs.&#xD;
Our research objectives centered on identifying key concepts and factors related to SX, developing an inclusive Student eXperience Model, and creating a validated evaluation methodology tailored to the higher education context. Recognizing the gap in the integration of cultural aspects within existing SX solutions, our study adopts a culturally informed perspective.&#xD;
To achieve this, we conducted a systematic literature review (SLR), which facilitated the identification of the traditional dimensions and factors that define the SX concept. Based on these insights, we formulated our own SX definition and subsequently sought relevant cultural dimensions and factors from existing literature to consolidate a more comprehensive SX model that incorporates these cultural aspects.&#xD;
The development of our SX model was informed by widely recognized and validated cultural models, ensuring a robust theoretical foundation. This culturally enriched SX model served as the basis for creating our SX evaluation methodology, which we then subjected to an expert judgment process for validation. Through this process, experts from the field of higher education and customer experience provided valuable insights, ensuring the proposed evaluation methodology's credibility, relevance, and applicability within diverse educational settings.&#xD;
As part of our postgraduate study plan, we present a preliminary version of this evaluation methodology, along with a detailed work plan that outlines its implementation and potential applications. Additionally, we discuss further opportunities to extend and refine the proposed SX model, emphasizing the importance of cultural inclusion in enhancing the overall Student eXperience. This research makes a significant contribution to the fields of Student eXperience, Customer eXperience, Higher Education, and the integration of Cultural Aspects, offering a validated Student eXperience Model and Evaluation Methodology that holds promise for future application and development.</description>
    <dc:date>2026-03-13T11:03:38Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39510">
    <title>Deep learning and complex systems: Structure, applications and limitations</title>
    <link>https://hdl.handle.net/11000/39510</link>
    <description>Título : Deep learning and complex systems: Structure, applications and limitations
Autor : Hernández Rodríguez, Adrián
Resumen : El desarrollo de los modelos de deep learning y el aumento de las capacidades computacionales han permitido mejorar notablemente el rendimiento de tareas específicas y generales antes atribuidas solo a la inteligencia humana.&#xD;
Estos modelos, siendo el más básico una red neuronal, son ejemplos específicos de programas diferenciables: Un programa diferenciable es una secuencia de transformaciones de tensores cuyos parámetros son diferenciables y se ajustan para minimizar el error de la tarea a realizar.&#xD;
La programación diferenciable, como generalización del deep learning, es un marco lo suficientemente expresivo para aproximar cualquier función y lo suficientemente flexible para incorporar la estructura del problema o tarea a resolver. Para resolver un problema concreto es entonces necesario restringir la estructura del programa diferenciable según las características del problema (dependencia temporal, invarianzas, etc.)&#xD;
En paralelo, el campo de los sistemas complejos (es decir, sistemas que contienen una gran cantidad de variables que interactúan entre sí de formas no triviales) ha producido recientemente muchos avances que pueden contribuir al Deep learning, sirviendo de fuente de inspiración de nuevos modelos y estructuras y siendo los candidatos ideales para aplicar las últimas técnicas de la programación diferenciable.&#xD;
El objetivo de esta Tesis es poder relacionar y avanzar estos dos campos a través de sus sinergias, técnicas y estructuras comunes.&#xD;
Primero, hemos analizado los modelos de redes complejas usados para describir el procesamiento de la información y la relación entre las neuronas en el cerebro. Hemos identificado que usar una matriz con las conexiones estructurales entre neuronas ha sido un enfoque revolucionario, pero tiene sus limitaciones.&#xD;
En el cerebro, o cualquier sistema complejo de procesamiento de información, las relaciones entre sus unidades básicas de información (neuronas), no son solo conexiones estructurales que no dependen del estado de cada neurona. En un sistema complejo de procesamiento de información, sus unidades están relacionadas de diversas formas y hay una continua dependencia entre sus relaciones y el estado de las unidades.&#xD;
Hemos propuesto las redes adaptativas multicapa, en las que diferentes capas paralelas interactúan de manera adaptativa con los nodos, como el marco apropiado para explicar el procesamiento de la información neuronal. Para ello extendemos el formalismo matricial que relaciona cada par de nodos al formalismo tensorial de rango cuatro, que relaciona un nodo de una capa con uno de cualquier otra capa, teniendo en cuenta también la interacción entre la dinámica de cada nodo y la sus conexiones con otros nodos.&#xD;
Esta primera contribución de la Tesis nos demuestra cuán rico y variado es el comportamiento de los sistemas complejos y por qué es importante usar los sistemas complejos como fuente de inspiración y aplicación para el deep learning.&#xD;
Siguiendo con la relación entre deep learning y sistemas complejos, la forma más útil y completa de estudiar los diferentes modelos de deep learning es a través de la programación diferenciable. Definimos formalmente la programación diferenciable a partir de un grafo dirigido acíclico que se implementa en tiempo de ejecución y cuyos parámetros se ajustan para minimizar el error de la tarea.&#xD;
Dado que la programación diferenciable permite implementar cualquier secuencia de transformaciones diferenciables de tensores, es necesario poder restringir la estructura del programa para adaptarlo a la tarea a realizar. Para ello proponemos varias características como relaciones entre tensores, invarianzas o simetrías, combinación de módulos. . . y las usamos para explicar los modelos más recientes de deep learning.&#xD;
Aplicamos estos conceptos a un problema de clasificación de publicaciones científicas relacionadas mediante un grafo usando diferentes modelos de Deep learning como redes neuronales, graph neural networks y auto-atención. La conclusión es que, cuando los datos de entrenamiento son limitados, es mejor usar modelos que incorporen la estructura del problema. Discutimos también una gran limitación inherente de la programación diferenciable, que minimiza el error de predicción de los datos de entrenamiento pero es incapaz de generar nueva información.&#xD;
Para profundizar en la relación entre deep learning y sistemas complejos, analizamos uno de los modelos más relevantes y recientes de programas diferenciables, los mecanismos de atención, y sus aplicaciones a los sistemas complejos. Para ello describimos los principales aspectos, ventajas y modos de operación de la atención diferenciable. Presentamos las principales técnicas de atención como los modelos seq2seq, los Transformers y las redes de memoria, analizando por qué representan un avance en el deep learning. Finalmente, ilustramos algunos usos interesantes de estas técnicas para modelar sistemas complejos demostrando que los mecanismos de atención permiten modelar ciertas características típicas de los sistemas complejos como la integración de diferentes partes, el razonamiento secuencial o las dependencias temporales de rango largo.&#xD;
En este punto, en el que hemos definido nuevas estructuras de sistemas y redes complejas y hemos analizado la programación diferenciable, sus características, modelos específicos y aplicación a los sistemas complejos, la pregunta que nos surge es: ¿qué limitaciones inherentes tienen estos modelos y cómo se pueden superar?&#xD;
Los modelos diferenciables ajustan los parámetros del programa para minimizar el error de predicción de los datos de entrenamiento. Este modo inherente de funcionamiento los hace ideales para modelar estadísticamente los datos de entrenamiento, pero impide que se genere nueva información y conocimiento no visto anteriormente.&#xD;
Para analizar si se pueden superar estas limitaciones, definimos el marco de las estrategias de aprendizaje y evaluamos si los LLM (grandes modelos de lenguaje), la técnica más reciente y disruptiva basada en los mecanismos de atención, pueden implementar dichas estrategias y generar nuevo conocimiento.&#xD;
Estas estrategias de aprendizaje consisten en modelos de deep learning que interaccionan con nuevos datos y con el entorno para generar nuevo conocimiento. Definimos una estrategia concreta que consiste en una serie de actividades secuenciales para predecir los precios del petróleo, obteniendo los datos y definiendo, mejorando y complementando un modelo de predicción.&#xD;
Concluimos que los LLM pueden implementar correctamente actividades típicas con presencia en los datos de entrenamiento, pero no tienen una capacidad general para definir estrategias de aprendizaje de una manera lógica y coherente. De hecho, el rendimiento de los LLM baja significativamente cuando intentan implementar actividades más creativas que no coinciden con actividades típicas de los datos de entrenamiento.&#xD;
Finalmente, discutimos el compromiso generador-verificador de los LLMs y sugerimos que su solución parcial pasa por la preparación cuidadosa de los datos de entrenamiento, el uso de verificadores externos y la intervención humana. Estas condiciones alejan a los LLMs de la inteligencia artificial general.; The development of deep learning models and the increase in computational capabilities have made it possible to significantly improve the performance of specific and general tasks previously attributed only to human intelligence.&#xD;
These models, the most basic being a neural network, are specific examples of differentiable programs: A differentiable program is a sequence of tensor transformations whose parameters are differentiable and are adjusted to minimize the error of the performed task.&#xD;
Differentiable programming, as a generalization of deep learning, is a framework expressive enough to approximate any function and flexible enough to incorpórate the structure of the problem or task to be solved. To solve a specific problem it is then necessary to restrict the structure of the differentiable program according to the characteristics of the problem (time dependence, invariances, symmetries, etc.)&#xD;
In parallel, the field of complex systems (i.e., systems that contain a large number of variables that interact with each other in non-trivial ways) has recently produced many advances that can contribute to deep learning, both as a source of inspiration for new structures and as ideal candidates to apply the latest techniques of differentiable programming.&#xD;
The objective of this Thesis is to relate and advance these two fields through their synergies, techniques and common structures. First, we have analyzed the complex network models used to describe infor1. summary mation processing and the relationship between neurons in the brain. We have identified that using a matrix with the structural connections between neurons has been a revolutionary approach, but it has its limitations.&#xD;
In the brain, or any complex information processing system, the relationships between its basic information units (neurons) are not just structural connections that do not depend on the state of each neuron. In a complex information processing system, its units or nodes are related in various ways and there is a continuous dependence between their relationships and the state of the units.&#xD;
We have proposed multilayer adaptive networks, in which different parallel ayers adaptively interact with nodes, as the appropriate framework to explain neural information processing. To do this, we extend the matrix formalism that relates each pair of nodes to the rank four tensor formalism, which relates a node from one layer to another node from any other layer, also taking into account the interaction between the dynamics of each node and its connections with other nodes.&#xD;
This first contribution of the Thesis shows us how rich and varied the behavior of complex systems is and why it is important to use complex systems as a source of inspiration and application for deep learning.&#xD;
Following with the relationship between deep learning and complex systems, the most useful and complete way to study the different deep learning models is through differentiable programming. We formally define differentiable programming based on an acyclic directed graph that is implemented at runtime and whose parameters are adjusted to minimize the task error.&#xD;
Since differentiable programming implements any sequence of differentiable tensor transformations, it is necessary to be able to restrict the structure of the program to adapt it to the performed task. To do this, we propose several characteristics such as relationships between tensors, invariances or symmetries, combination of modules... and we use them to explain the most recent deep learning models.&#xD;
We apply these concepts to a problem of classifying scientific publications using different deep learning models such as neural networks, graph neural networks and self-attention. The bottom line is that, when training data is limited, it is better to use models that incorporate the structure of the problem. We also discuss a major inherent limitation of differentiable programming, namely, that summary it minimizes the prediction error of the training data but is unable to generate new information.&#xD;
To delve deeper into the relationship between deep learning and complex systems, we analyze attention mechanisms, the most relevant and recent models of differentiable programming, and their applications to complex systems. To this end, we describe the main aspects, advantages and modes of operation of differentiable attention.We present the main attention techniques such as seq2seq models, Transformers and memory networks, analyzing why they represent an advance in deep learning. Finally, we illustrate some interesting uses of these techniques to model complex systems by demonstrating that attention mechanisms allow modeling certain typical characteristics of complex systems such as the integration of different parts, sequential reasoning or long-range temporal dependencies.&#xD;
At this point, where we have defined new structures of complex systems and networks and have analyzed differentiable programming, its characteristics, specific models and application to complex systems, the question that arises is what inherent limitations do these models have and how can they be overcome?&#xD;
Differentiable models adjust program parameters to minimize the prediction error of the training data. This inherent mode of operation makes them ideal for statistically modeling training data, but prevents the generation of new information and knowledge not previously seen.&#xD;
To analyze whether these limitations can be solved, we define the framework of learning strategies and evaluate whether LLMs (Large Language Models), the most recent and disruptive techniques based on attention mechanisms, can implement such strategies and generate new knowledge.&#xD;
These learning strategies consist of deep learning models that interact with new data and the environment to generate new knowledge. We define a concrete strategy that consists of a series of sequential activities to predict oil prices. The activities are to obtain the data, define the model and improve and complement the model.&#xD;
We conclude that LLMs can correctly implement typical activities with presence in the training data, but do not have a general ability to define learning strategies in a logical and coherent way. In fact, LLM performance drops significantly when you try to implement more creative activities that do not match typical activities in the training data.&#xD;
Finally, we discuss the generator-verifier trade-off of LLMs and suggest that its partial solution involves the careful preparation of training data, the use of external verifiers and human intervention. These conditions move LLMs away from general artificial intelligence.</description>
    <dc:date>2026-03-10T08:30:12Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39509">
    <title>Estrategias innovadoras con elicitores para reducir las pérdidas en la cosecha y preservar la calidad y vida útil de productos vegetales</title>
    <link>https://hdl.handle.net/11000/39509</link>
    <description>Título : Estrategias innovadoras con elicitores para reducir las pérdidas en la cosecha y preservar la calidad y vida útil de productos vegetales
Autor : Ruiz-Aracil, María Celeste
Resumen : En la presente Tesis se han estudiado los efectos de la aplicación de elicitores sobre distintas especies vegetales, con el objetivo de reducir fisiopatías que se producen en la precosecha, así como disminuir la pérdida de calidad y los daños por frío originados durante el almacenamiento de los frutos en la poscosecha incrementado su vida útil. Otro de los objetivos principales ha sido evaluar el efecto sinérgico al combinar los elicitores como tratamientos de origen natural junto con sustancias de origen artificial ampliamente utilizadas en la poscosecha de frutos como es el 1-metilciclopropeno (1-MCP).&#xD;
Las cerezas son frutas de gran relevancia a nivel nacional, y su producción se destina principalmente al consumo en fresco. No obstante, los cultivos de esta fruta experimentan pérdidas considerables debido a su vulnerabilidad frente a las heladas y el agrietado, especialmente en las variedades de cosecha temprana. Las heladas ocurridas durante la floración y las lluvias acaecidas en el estado de fructificación, comprometen la integridad de los órganos florales y del fruto, ocasionando importantes pérdidas económicas. Las excesivas precipitaciones, los cambios de temperatura y la alta humedad provocan el agrietado de las cerezas que son frutos con la piel fina. Esto facilita que sean más sensibles al agrietado a diferencia de otras especies vegetales. Este cultivo también sufre heladas primaverales que afectan a su rendimiento y al número de frutos cosechados. Las fisiopatías del fruto debido a las condiciones climáticas generan una cantidad importante de pérdidas económicas para los agricultores, y en especial, para aquellos dónde la topografía y la localización del terreno implica la incidencia de lluvias de manera constante como es el caso de la cereza evaluada en esta Tesis acogida a la Indicación Geográfica Protegida (IGP) “Cerezas de la Montaña de Alicante”. Por ello, para poder mitigar los efectos negativos que se están produciendo en el cultivo de la cereza debido a la variabilidad de las condiciones climáticas, en la presente Tesis se han desarrollado diferentes estrategias precosecha.&#xD;
Además, la influencia de los distintos estados de madurez del fruto en el árbol no ha sido evaluado todavía en el agrietado de las cerezas. El estudio de este factor podría aportar el conocimiento suficiente para optimizar herramientas eficaces en la reducción del agrietado de las cerezas y por esta razón se ha decidido que sea materia de estudio para la Tesis. Este trabajo se enfoca en aplicar tratamientos de origen natural en etapas clave del desarrollo de las cerezas de las variedades 'Prime Giant', 'Sweetheart', 'Early Lory' y 'Staccato', con el propósito de ofrecer soluciones para mitigar los problemas de heladas y agrietado de los frutos y evaluar su efecto en la calidad al momento de la cosecha. Para poder paliar esta problemática se han utilizado elicitores como el jasmonato de metilo (JaMe) a 0,5 mM, la putrescina (PUT) a concentraciones de 1 mM y 10 mM y la melatonina (MT) (0,01, 0,05 y 0,1 mM) mediante pulverización foliar durante diferentes ciclos productivos (2019, 2020, 2021, 2022, 2023). El JaMe, la PUT y la MT son hormonas vegetales que poseen los tejidos vegetales de forma endógena y se encargan del crecimiento y el desarrollo de las plantas, así como la inducción de respuesta al estrés. Con la utilización de PUT y MT es posible minimizar el impacto de las heladas primaverales sobre las cerezas al reducir el contenido de malondialdehído (MDA) en los botones florales y aumentar el cuajado de los frutos. Las cerezas tratadas con JaMe, PUT y MT aumentaron de forma eficaz la tolerancia del fruto al agrietado inducido por la lluvia. Se ha podido comprobar que existe diferente variabilidad en la sensibilidad del fruto al agrietado, siendo dependiente del cultivo y de la etapa de maduración. Los tratamientos de JaMe y PUT en cereza han mostrado eficacia en la reducción de la maduración de la fruta; aumentando la firmeza, la acumulación de los sólidos solubles y retrasando la evolución del color en el momento de la cosecha. Además, los tratamientos consiguieron mantener la calidad general del fruto, con valores incrementados de firmeza y un retraso en el desarrollo del color, los sólidos solubles y la acidez total en comparación con la fruta no tratada en el momento de la cosecha. Los resultados sugieren que los tratamientos con elicitores en precosecha de la cereza pueden servir como una herramienta eficaz para mitigar las pérdidas de producción, proporcionando así una estrategia prometedora para adaptarse al cambio climático y mitigar el estrés.; In this Doctoral Thesis, the effects of applying elicitors on different plant species have been studied, aiming to reduce physiological disorders occurring during preharvest, as well as minimizing quality loss and chilling injuries the postharvest storage of fruits, thereby extending their shelf life. Another primary objective has been to evaluate the synergistic effect of combining elicitors as natural-origin treatments with artificial-origin substances widely used in postharvest fruit preservation, such as 1-methylcyclopropene (1-MCP).&#xD;
Sweet cherries are fruits of high national importance, primarily produced for fresh consumption. However, their production often suffers significant losses due to susceptibility to frost and cracking, especially in early-harvest varieties. The frost during flowering and rainfall during the fruiting stage can compromise the integrity of floral organs and the fruit itself, leading to substantial economic losses. Excessive rainfall, temperature fluctuations, and high humidity levels cause cracking in sweet cherry, which have thinner skins, making them more prone to cracking compared to other plant species. This crop is also affected by spring frosts, impacting yield and the number of harvested fruits. The physiological disorders caused by climatic conditions result in significant economic losses for growers, particularly those in areas where the topography and location result in consistent rainfall, as is the case for the sweet cherry evaluated in this Doctoral Thesis under the Protected Geographical Indication (PGI) "Cerezas de la Montaña de Alicante." Therefore, to mitigate the negative impacts on sweet cherry due to the variability of climatic conditions, this Doctoral Thesis has developed various preharvest strategies.&#xD;
Moreover, the influence of different maturity stages on sweet cherry cracking has not yet been evaluated. Studying this factor could provide sufficient knowledge to optimize effective tools for reducing sweet cherry cracking, which is why it has been chosen as a subject of study for this Doctoral Thesis. The contribution of this work focuses on the use of natural-origin treatments applied at key development stages for the 'Prime Giant', 'Sweetheart', 'Early Lory' and 'Staccato' cultivars, aiming to address the challenges of frost and cracking in cherries and evaluate their impact on quality at harvest time. To tackle this issue, elicitors such as methyl jasmonate (MeJa) at 0.5 mM, putrescine (PUT) at 1 mM and 10 mM, and melatonin (MT) (0.01, 0.05, and 0.1 mM) were applied through foliar spraying across different growing cycles (2019, 2020, 2021, 2022, 2023). MeJa, PUT, and MT are endogenous plant hormones present in plant tissues that play roles in growth, development, and stress response induction. Using putrescine and MT has been shown to reduce the impact of spring frosts on cherries by lowering the MDA content in flower buds and increasing fruit set. Sweet cherries treated with MeJa, PUT, and MT effectively improved the fruit's tolerance to rain-induced cracking. It has been observed that there is variability in fruit sensitivity to cracking, depending on the cultivar and maturation stage. The MeJa and PUT treatments in sweet cherry have proven effective in slowing down fruit ripening, increasing firmness, enhancing soluble solid accumulation, and delaying colour progression at harvest. Additionally, these treatments helped maintain the overall quality of the fruit, showing increased firmness and delayed development of colour, soluble solids, and total acidity compared to untreated fruit at harvest. The results suggest that preharvest elicitor treatments for cherries can serve as an effective tool for mitigating production losses, offering a promising strategy for adapting to climate change and alleviating stress.</description>
    <dc:date>2026-03-09T11:42:17Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39508">
    <title>Propiedades repelentes, antialimentarias e insecticidas de nanoemulsiones de bioactivos volátiles sobre pulgones (Hemiptera: Aphididae) en cultivos hortícolas</title>
    <link>https://hdl.handle.net/11000/39508</link>
    <description>Título : Propiedades repelentes, antialimentarias e insecticidas de nanoemulsiones de bioactivos volátiles sobre pulgones (Hemiptera: Aphididae) en cultivos hortícolas
Autor : Martín Pérez, Félix
Resumen : Los pulgones (Hemiptera: Aphididae) son una de las plagas que mayores pérdidas económicas ocasionan en los cultivos a nivel mundial. En los últimos años, en las principales zonas productoras del sureste español, la incidencia de daños producidos por pulgones, concretamente las especies Myzus persicae (Sulzer) y Aphis gossypii Glover, se ha visto incrementada sobre todo en los cultivos ecológicos de pimiento y melón. El control químico de pulgones resulta complicado debido a la aparición de poblaciones resistentes a numerosas materias activas, lo que unido a las iniciativas promovidas por la Unión Europea como El Pacto Verde Europeo y la estrategia De la Granja a la Mesa, que buscan reducir el uso de plaguicidas, han propiciado un escenario muy complejo para el sector agrícola, dadas las dificultades que encuentran para llevar a cabo un buen manejo de las herramientas de gestión integrada de plagas para la protección de cultivos.&#xD;
Ante la falta de alternativas a los productos fitosanitarios convencionales tan problemáticos, surge la necesidad de buscar en la naturaleza aquellas sustancias que sean capaces de controlar las plagas sin comprometer la integridad del medio ambiente, la salud humana y que además sean compatibles con la fauna auxiliar. Se sabe que los aceites esenciales de algunas plantas y los compuestos puros que se pueden extraer de ellas tienen propiedades repelentes, insecticidas, antialimentarias e inhibidoras de la reproducción, entre otras. Pero tienen la particularidad de que son inmiscibles en agua, muy volátiles y se degradan fácilmente.Por ello, el objetivo de esta tesis doctoral es desarrollar emulsiones de aceite en agua, empleando surfactantes y/o estabilizantes y aplicando la energía necesaria para obtener una mezcla homogénea y estable en el tiempo, con tamaños de partícula del ingrediente activo a una escala nanométrica y evitar así su rápida degradación, volatilización y mejorar la persistencia de su efecto insecticida, con la finalidad de que estos formulados sean una herramienta más de control químico para la protección de cultivos.&#xD;
Las nanoemulsiones se han elaborado empleado tanto un homogeneizador de alta velocidad como la técnica de ultrasonidos y se han caracterizado para conocer el tamaño de partícula del ingrediente activo y la estabilidad de la mezcla. En este aspecto, los resultados indican que con la técnica de ultrasonidos se consiguen nanoemulsiones con tamaños de partícula pequeños y buena estabilidad. Además, se ha evaluado el efecto insecticida y su persistencia sobre M. persicae tanto en condiciones de laboratorio como en condiciones de campo en invernadero con plantas de pimiento y se ha obtenido que un 1% de la mezcla de citral, (E)-anetol, farnesol, (Z)-jasmona y aceite de limón, a partes iguales, en combinación con lecitina de soja y aceite de girasol en formulación 1:1:1, produce a los 4 días de la pulverización una mortalidad del 73% que se mantiene hasta los 14 días en condiciones de laboratorio y del 30% en condiciones de campo sin causar fitotoxicidad al cultivo del pimiento. Por otro lado, la (Z)-jasmona al 0,25% hace buena emulsión con Tween80® (1:2) y en condiciones de campo produce un 83% de mortalidad a los 4 días de la pulverización. En el caso del aceite de semillas de algodón al 3%, formulado al 1:1 con jabón potásico como surfactante en agua, da como resultado una mortalidad del 82% a los 4 días de la aplicación en campo. En cuanto al farnesol, la nanoemulsión al 0,2% con Tween80® (1:2), reduce la tasa de crecimiento poblacional de M. persicae con un efecto que persiste hasta 7 días después de la pulverización de las plantas de pimiento.; Aphids (Hemiptera: Aphididae) are one of the pests that cause the greatest economic losses in crops worldwide. In recent years, in the main production areas of southeastern Spain, the incidence of damage caused by aphids, specifically the species Myzus persicae (Sulzer) and Aphis gossypii Glover, has increased especially in organic pepper and melon crops. Chemical control of aphids is complicated due to the appearance of populations resistant to numerous active ingredientes, which together with the initiatives promoted by the European Union such as the European Green Deal and the Farm to Fork strategy, which seek to reduce the use of pesticides, have led to a very complex scenario for the agricultural sector, given the difficulties they encounter in carrying out a good management of integrated pest management tools for crop protection.&#xD;
Given the lack of alternatives to conventional problematic phytosanitary products, there is a need to look for in nature those substances that are capable of controlling pests without compromising the integrity of the environment, human health and that are also compatible with auxiliary fauna. The essential oils of some plants and the pure compounds that can be extracted from them are known to have repellent, insecticidal, and feeding and reproductive inhibiting properties, among others. But they have the particularity that they are immiscible in water, very volatile and easily degraded.&#xD;
Therefore, the objective of this doctoral thesis is to develop oil-in-water emulsions, using surfactants and/or stabilizers and applying the necessary energy to obtain a homogeneous and stable mixture over time, with particle sizes of the active ingredient at a nanometric scale and thus avoid its rapid degradation, volatilization and improve the persistence of its insecticidal effect, with the aim of making these formulations another chemical control tool for crop protection.&#xD;
The nanoemulsions have been developed using both a high-speed homogenizer and the ultrasonic technique and have been characterized to know the particle size of the active ingredient and the stability of the mixture. In this regard, the results indicate that the ultrasonic technique produces nanoemulsions with small particle sizes and good stability. In addition, the insecticidal effect and its persistence on M. persicae have been evaluated both in laboratory conditions and in field conditions in a greenhouse with pepper plants and it has been obtained that 1% of the mixture of citral, (E)-anethole, farnesol, (Z)-jasmone and lemon oil, in equal parts, in combination with soya lecithin and sunflower oil in a 1:1:1 formulation, it produces a mortality of 73% after 4 days of spraying, which is maintained until 14 days in laboratory conditions and 30% in field conditions without causing phytotoxicity to the pepper crop. On the other hand, 0.25% (Z)-jasmone makes a good emulsion with Tween80® (1:2) and in field conditions produces 83% mortality 4 days after spraying. In the case of 3% cottonseed oil, formulated 1:1 with potassium soap as a surfactant in water, it results in 82% mortality at 4 days after field application. As for farnesol, the 0.2% nanoemulsion with Tween80® (1:2), reduces the population growth rate of M. persicae with an effect that persists up to 7 days after spraying of pepper plants.</description>
    <dc:date>2026-03-09T11:37:58Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39507">
    <title>Characterization of commercial cultivars of artichoke, cardoon and their wild relatives for their productive and commercial optimization</title>
    <link>https://hdl.handle.net/11000/39507</link>
    <description>Título : Characterization of commercial cultivars of artichoke, cardoon and their wild relatives for their productive and commercial optimization
Autor : GIMÉNEZ BERENGUER, MARINA
Resumen : This doctoral thesis, titled "Characterization of Commercial Cultivars of Artichoke, Cardoon, and their Wild Relatives for Productive and Commercial Optimization", provides a comprehensive investigation into the genetic, agronomic, and environmental factors influencing the quality and commercial potential of artichokes (Cynara cardunculus var: scolymus) and cardoons (Cynara cardunculus var. altilis. These species, which belong to the Asteracee family, are economically significant crops in Mediterranean agriculture, valued not only for their culinary applications but also for their high nutritional and bioactive compound content.&#xD;
&#xD;
Despite their agronomic importance and increasing interest in their health-promoting properties, artichokes and cardoons remain relatively underexplored compared to other vegetable commodities. The characterization of their biochemical, physiological, and post-harvest properties is crucial for enhancing their competitiveness, optimizing their industrial applications, and ensuring theirArtichokes and cardoons play a crucial role in Mediterranean agriculture.&#xD;
&#xD;
Spain, Italy, and Egypt are the leading producers of artichokes, with Spain ranking third worldwide. The artichoke industry is particularly relevant in the Valencian Community and Murcia, where it contributes significantly to local economies.&#xD;
&#xD;
Artichoke cultivation follows both annual and perennial production systems, with vegetative propagation being the dominant method in traditional farming. However; seed-propagated cultivars have gained interest due to their potential advantages in terms of uniformity, yield, and disease resistance.&#xD;
&#xD;
Cardoons, on the other hand, are less commonly consumed as vegetables but hold significant agronomic value due to their adaptability to marginal lands and their tolerance to drought and extreme temperatures. They are cultivated mainly in Mediterranean countries, where they are used in traditional cuisine, functional food applications, and as a source of bioactive compounds. Moreover, cardoon cultivation has been associated with soil health benefits, such as enhanced organic matter and improved microbial activity.Both artichokes and cardoons are highly regarded for their bioactive composition. Artichokes are particularly rich in polyphenols, including chlorogenic acid, cynarin, and flavonoids, which contribute to their strong antioxidant capacity.&#xD;
&#xD;
These compounds not only enhance the nutritional value of artichokes but also play a role in determining their post-harvest stability and processing suitability. Similarly, cardoon seeds have been identified as a valuable source of minerals such as calcium, magnesium, and potassium, making them a promising ingredient for functional food and feed applications.&#xD;
&#xD;
Despite their well-documented nutritional and agronomic benefits, both artichokes and cardoons face several research gaps that limit their commercial and productive optimization. In the case of artichokes, post-harvest browning due to enzymatic oxidation remains a significant challenge for fresh-cut processing. While polyphenols are essential for their antioxidant properties, they also act as substrates for polyphenol oxidase leading to rapid discoloration and reduced consumer acceptability. This balance between nutritional quality and post-harvest stability is crucial in determining the suitability of different cultivars for fresh or processed markets. For cardoons, research has primarily focused on their agronomic trats and medicinal properties, while fewer studies have explored the stability of their mineral composition across different genotypes and growing conditions. Understanding these variations is essential for optimizing cardoon seed utilization in food, feed, and industrial applications.&#xD;
&#xD;
This doctoral thesis aims to address these knowledge gaps by providing a comprehensive characterization of artichoke and cardoon cultivars, focusing on their genetic, biochemical, and post-harvest properties. Through six interconnected studies, this research aims to deepen the understanding of the productive and commercial aspects of these crops, addressing key challenges related to fresh-cut processing, post-harvest quality, environmental stress tolerance, and cardoon seed nutritional composition. By integrating physiological, biochemical, and agronomic perspectives, this thesis offers valuable insights that contribute optimizing production strategies, improving post-harvest management, and enhancing the competitiveness of these crops in agricultural and industrial sectors.The first set of studies focuses on fresh-cut artichokes, investigating enzymatic browning, phenolic content, and storage stability. A novel approach combining L-cysteine and essential oils (eugenol, thymol and carvacrol) at an equivalent concentration of 75, 150 and 300 uL, was evaluated for its efficacy in minimizing enzymatic browning while preserving the bioactive properties and sensory attributes of "Blanca de Tudela' fresh-cut artichokes. Results of the application of cysteine and 150 ql. of EOs, confirmed a significant reduction in oxidative browning, extending shelf-life and improving visual quality without compromising phenolic retention.&#xD;
&#xD;
&#xD;
&#xD;
Further research examined the suitability of three artichoke cultivars ('Lorca,"Tupac, and 'Green Queen' for fresh-cut processing, with particular emphasis on the influence of flower head order (main, secondary, tertiary). Results demonstrated that tertiary heads, particularly from the 'Green Queen' cultivar, exhibited the highest phenolic content but also showed greater susceptibility to browning. In contrast, main heads, characterized by lower polyphenol levels, especially in the Lorca' and "Tupac' cultivars, displayed reduced browning indices and higher consumer acceptability. A strong negative correlation coefficient was observed between these parameters, indicating that increased browning directly reduces sensory appeal. This study underscores the significance of cultivar selection and flower head order in optimizing the quality and commercial capability of minimally processed artichoke products.&#xD;
&#xD;
Following this line of investigation, Lorca cultivar was selected for its viability as minimally processed product. Artichokes were classified according to the flower head orders (main, secondary, and tertiary) and three internal development stages (initial, intermediate, and advanced). For the first time, internal development stage was analysed in relation to total phenolic content. The results indicated that main heads and those in the advanced development stage exhibited the lowest phenolic concentration and PPO activity, resulting in reduced browning susceptibility, and therefore, potentially enhancing its suitability for fresh-cut processing.&#xD;
&#xD;
Another core investigation conducted a phytochemical characterization of artichoke heads based on their position on the plant (main, secondary, and tertiary heads) and harvest date throughout an entire growing season in Blanca de Tudela' artichoke cultivar. The results indicated that tertiary heads exhibited the highest total identified polyphenol concentration, primarily due to their elevated levels of hydroxycinnamic acid and luteolin derivatives compared to secondary and main heads. Furthermore, two postharvest storage experiments were conducted using main, secondary, and tertiary artichoke heads harvested in winter and spring.&#xD;
&#xD;
Tertiary heads demonstrated the lowest weight loss, minimal firmness reduction, and the lowest respiration rate during cold storage, which may be attributed to their higher antioxidant compound content. In conclusion, tertiary heads exhibit greater suitability for low-temperature storage from harvest to consumption, as they maintain quality attributes for a longer period and contain higher levels of bioactive compounds.&#xD;
&#xD;
Expanding on this research, the following study explored the role of phenolic compounds and antioxidant activity in mitigating frost damage in 'Blanca de Tudela'artichoke cultivar. The results indicated that tertiary heads exhibited the highest total identified polyphenol concentration, primarily due to their elevated levels of hydroxycinnamic acid and luteolin derivatives compared to secondary and main heads. Furthermore, two postharvest storage experiments were conducted using main, secondary, and tertiary artichoke heads harvested in winter and spring.&#xD;
&#xD;
Tertiary heads demonstrated the lowest weight loss, minimal firmness reduction, and the lowest respiration rate during cold storage, which may be attributed to their higher antioxidant compound content. In conclusion, tertiary heads exhibit greater suitability for low-temperature storage from harvest to consumption, as they maintain quality attributes for a longer period and contain higher levels of bioactive compounds.</description>
    <dc:date>2026-03-09T10:30:24Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39503">
    <title>Aplicación de riego deficitario en olivar. ¿Cómo afecta a la calidad del aceite?</title>
    <link>https://hdl.handle.net/11000/39503</link>
    <description>Título : Aplicación de riego deficitario en olivar. ¿Cómo afecta a la calidad del aceite?
Autor : GARCÍA GARVÍ, JOSE MIGUEL
Resumen : Uno de los efectos del cambio climático es la disminución de las precipitaciones y la disminución&#xD;
de recursos hídricos. En agricultura se ha generado la necesidad de buscar nuevas técnicas de&#xD;
riego y aprovechamiento del agua que sean más eficaces y eficientes, entre las que se&#xD;
encuentran las estrategias de Riego Deficitario (RD). La clave de este tipo de prácticas agrarias&#xD;
consiste en la reducción selectiva del agua de riego, hasta unos niveles por debajo de los&#xD;
requerimientos hídricos de la planta, pero que no se comprometa ni la productividad de la&#xD;
plantación ni la supervivencia a largo plazo en el caso de los cultivos leñosos. En este sentido se&#xD;
pueden aplicar dos estrategias, diferenciadas por el momento de reducción del agua de riego. El&#xD;
riego deficitario sostenido (RDS) mantiene la reducción del agua de riego a lo largo de todo el&#xD;
ciclo fenológico de la planta, mientras que el riego deficitario controlado (RDC) consiste en la&#xD;
aplicación de un determinado nivel de estrés en aquellas etapas fenológicas que son menos&#xD;
sensibles a la escasez de agua. En el caso del olivar se han establecido tres periodos fenológicos:&#xD;
desde la floración hasta el endurecimiento del hueso, el endurecimiento del hueso y la&#xD;
maduración del fruto y acumulación de aceite. La aplicación de riego deficitario no solamente&#xD;
puede comprometer la viabilidad del cultivo y la producción final, ya que también puede afectar&#xD;
de forma directa a la calidad del producto obtenido y sus derivados, como en el caso del aceite&#xD;
de oliva. Este aspecto debe tenerse en cuenta a la hora de seleccionar qué estrategias de RD&#xD;
permiten una reducción de agua de riego con mínimas pérdidas de producción, al mismo tiempo&#xD;
que se mantiene, o incluso aumenta, la calidad del producto final. En sentido opuesto, se están&#xD;
llevando a cabo prácticas agrarias con el objetivo de maximizar la producción y la tecnificación&#xD;
de la producción agraria, como el caso de los sistemas de cultivo de alta densidad o&#xD;
superintensivos, que a su vez aumentan las necesidades de insumos y de recursos hídricos de&#xD;
los cultivos.&#xD;
Teniendo en cuenta estos escenarios y condicionantes, la hipótesis de esta Tesis Doctoral es que&#xD;
determinadas estrategias de riego deficitario pueden mantener e incluso mejor la calidad final&#xD;
del aceite de oliva obtenida en condiciones de estrés hídrico en el olivar. De esta forma, los&#xD;
objetivos de este trabajo de investigación han sido analizar el efecto en la calidad fisicoquímica&#xD;
y sensorial de los aceites obtenidos bajo condiciones de riego deficitario, los cambios en los&#xD;
perfiles volátiles y lipídicos, la actividad antioxidante y el contenido en compuestos polifenólicos,&#xD;
además de indagar en la aceptación que muestran los consumidores de los aceites que han sido&#xD;
obtenidos mediante estrategias de RD frente a aquellos que han sido obtenidos en escenarios&#xD;
sin restricciones hídricas.Los resultados indicaron que la aplicación de riego deficitario, tanto en su variante Sostenida&#xD;
como en la variante Controlada generaron cambios en la calidad de los aceites obtenidos, desde&#xD;
un punto de vista fisicoquímico y sensorial. Estos cambios se vieron reflejados en el estudio de&#xD;
consumidores, donde los consumidores mostraron una mayor aceptación por los aceites&#xD;
hidroSOStenibles. Respecto a los perfiles químicos, la aplicación de riego deficitario generó&#xD;
cambios tanto en los compuestos volátiles, donde aumentaron los compuestos relacionados con&#xD;
aromas verdes, como en la proporción de ácidos grasos, desplazados hacia una composición más&#xD;
saludable. En lo relativo a los compuestos fenólicos y su capacidad antioxidante también se&#xD;
produjo un aumento, como respuesta al estrés abiótico generado al reducir el agua disponible.&#xD;
De acuerdo con los resultados obtenidos se puede concluir que la aplicación de riego deficitario&#xD;
en olivar superintensivo no sólo favorece la conservación de recursos hídricos en escenarios de&#xD;
escasez de agua, sino que permite a su vez mejorar la calidad global de los aceites obtenidos, sin&#xD;
afectar significativamente a la producción.; One of the effects of climate change is the decrease in rainfall and water resources. In agriculture,&#xD;
this has created the need to seek new irrigation and water use techniques that are more effective&#xD;
and efficient, such as Deficit Irrigation (DI) strategies. The key to these agricultural practices is&#xD;
the selective reduction of irrigation water to levels below the plant's water requirements,&#xD;
without compromising the productivity of the plantation or the long-term survival of woody&#xD;
crops.&#xD;
Two strategies can be applied, differentiated by the timing of the irrigation water reduction.&#xD;
Sustained Deficit Irrigation (SDI) maintains the reduction of irrigation water throughout the&#xD;
plant's entire phenological cycle, while Controlled Deficit Irrigation (CDI) involves applying a&#xD;
certain level of stress during phenological stages that are less sensitive to water scarcity. In the&#xD;
case of olive trees, three phenological periods have been established: from flowering to pit&#xD;
hardening, pit hardening, and fruit ripening and oil accumulation.&#xD;
The application of deficit irrigation can not only compromise the viability of the crop and final&#xD;
production, but it can also directly affect the quality of the product obtained and its derivatives,&#xD;
such as olive oil. This aspect must be considered when selecting which DI strategies allow for a&#xD;
reduction in irrigation water with minimal production losses, while maintaining or even&#xD;
increasing the quality of the final product. Conversely, agricultural practices are being carried out&#xD;
with the aim of maximizing production and the technification of agricultural production, such as&#xD;
high-density or super-intensive cultivation systems, which in turn increase the input and water&#xD;
resource needs of the crops.&#xD;
Given these scenarios and conditions, the hypothesis of this Doctoral Thesis is that certain deficit&#xD;
irrigation strategies can maintain or even improve the final quality of olive oil obtained under&#xD;
water stress conditions in olive groves. Thus, the objectives of this research work have been to&#xD;
analyze the effect on the physicochemical and sensory quality of oils obtained under deficit&#xD;
irrigation conditions, changes in volatile and lipid profiles, antioxidant activity, and polyphenolic&#xD;
compound content, as well as to investigate consumer acceptance of oils obtained through DI&#xD;
strategies compared to those obtained in scenarios without water restrictions.&#xD;
The results indicated that the application of deficit irrigation, both in its Sustained and Controlled&#xD;
variants, generated changes in the quality of the oils obtained, from a physicochemical and&#xD;
sensory point of view. These changes were reflected in the consumer study, where consumers&#xD;
showed greater acceptance of hydroSOStainable oils. Regarding chemical profiles, the&#xD;
application of deficit irrigation generated changes in volatile compounds, where compounds related to green aromas increased, as well as in the proportion of fatty acids, shifted towards a&#xD;
healthier composition. In terms of phenolic compounds and their antioxidant capacity, there was&#xD;
also an increase, as a response to the abiotic stress generated by reducing the available water.&#xD;
According to the results obtained, it can be concluded that the application of deficit irrigation in&#xD;
super-intensive olive groves not only favors the conservation of water resources in scenarios of&#xD;
water scarcity but also improves the overall quality of the oils obtained, without significantly&#xD;
affecting production.</description>
    <dc:date>2026-03-09T09:18:44Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39502">
    <title>Preharvest Strategies in Green Pepper Fruit: Quality Enhancement, Extended Shelf-Life and Integral Valorisation of By-products</title>
    <link>https://hdl.handle.net/11000/39502</link>
    <description>Título : Preharvest Strategies in Green Pepper Fruit: Quality Enhancement, Extended Shelf-Life and Integral Valorisation of By-products
Autor : Dobón Suárez, Alicia
Resumen : The cultivation of peppers (Capsicum annuum L.) is of significant economic importance worldwide, due to their high nutritional value and culinary applications. Notwithstanding, considerable economic losses were incurred due to spoilage and deterioration during storage. Moreover, there is an increasing consumer demand for high-quality produce with enhanced nutritional value and treated throughout eco-friendly preharvest strategies. This is due to consumers' concerns and legal restrictions regarding the use of postharvest chemical treatments. The present PhD thesis explores the postharvest loses in Lamuyo-type green peppers and the increasing consumer demand for high-quality produce through preharvest strategies. The research focuses on the application of salicylic acid (SA) and methyl jasmonate (MeJA) as plant elicitors to enhance the quality and shelf-life of peppers, as well as on the integral valorisation of pepper seeds. The PhD thesis, which comprises six publications, was the first to identify the optimal phenological stage S12 and harvest time (April) for maximum bioactive compound accumulation, thereby establishing a basis for subsequent studies. The findings from the second and third studies demonstrated that 0.5mM SA application, via foliar and irrigation, improved crop yield, maintained quality up to 28 days at 7 °C, and upregulated the relative response of antioxidant-related genes, with irrigation being more practical. The fourth publication revealed that foliar application of 0.1mM MeJA increased crop yield, delayed senescence, maintained quality attributes, and enhanced the total phenolic content, total antioxidant activity and the activity of antioxidant enzymes after 28 days at 7°C. The fifth study showed that both 0.5 mM SA and 0.1 mM MeJA, applied via foliar or irrigation, induced chilling tolerance and maintained the postharvest quality of green bell peppers stored at 2 °C for 28 days plus 2 days at 20 °C, with SA irrigation being the most effective. The final publication took the form of a review article, the purpose of which was to emphasise the nutritional and funconal value of pepper seeds as a sustainable alternative in agrifood, with the objective of promoting a circular bioeconomy. &#xD;
In conclusion, recent advancements in understanding green bell pepper have encompassed two primary domains. Firstly, significant progress has been made in the optimisation of the physiological development stage. Secondly, there has been considerable progress in the application of SA and MeJA as preharvest strategies in green pepper fruit. These developments have the potential to assist horticultural companies in enhancing crop yield, ensuring the provision of green pepper fruits that meet higher quality standards at harvest, and extending shelf-life. Furthermore, a comprehensive review of bell pepper seeds as a by-product within the industry underscores their potential value for diverse agrifood applications. Subsequent research would likely concentrate on investigating: 1) the effects of elicitors on resistance to rotting, as this is one of the major problems facing the marketing of peppers, 2) the development of pre- and postharvest strategies to extend the shelf-life of fresh-cut pepper fruits, which are a popular choice for salads and various dishes due to the exponential growth of the processing industry, and 3) the potential use of seeds as a food ingredient and plant biostimulants.; El cultivo del pimiento (Capsicum annuum L.) tiene una gran importancia económica en todo el mundo, debido a su alto valor nutritivo y a sus aplicaciones culinarias. A pesar de ello, se producen pérdidas económicas considerables debido al deterioro durante el almacenamiento. Además, existe una creciente demanda por parte de los consumidores de productos de alta calidad con un valor nutricional mejorado y tratados mediante estrategias precosecha respetuosas con el medio ambiente. Esto se debe a la preocupación de los consumidores y a las restricciones legales en cuanto al uso de tratamientos químicos postcosecha. La presente tesis doctoral explora las pérdidas postcosecha en pimiento verde tipo Lamuyo y la creciente demanda de los consumidores de productos de alta calidad a través de estrategias precosecha. La investigación se centra en la aplicación de ácido salicílico (AS) y jasmonato de metilo (JaMe) como elicitores vegetales para mejorar la calidad y vida útil de los pimientos, así como en la valorización integral de las semillas de pimiento. La tesis doctoral, compuesta por seis publicaciones, fue la primera en identificar el estado fenológico S12 y el momento de la cosecha (Abril) óptimos para la máxima acumulación de compuestos bioactivos, sentando así las bases para estudios posteriores. Los resultados del segundo y tercer estudio demostraron que la aplicación de AS a la concentración de 0,5 mM, vía foliar y por riego, mejoró el rendimiento del cultivo, mantuvo la calidad hasta 28 días a 7 °C y reguló al alza la respuesta relativa de los genes relacionados con antioxidantes, siendo más práctico el riego. La cuarta publicación reveló que la aplicación foliar de 0,1 mM de JaMe aumentó el rendimiento del cultivo, retrasó la senescencia, mantuvo los atributos de calidad, y mejoró el contenido fenólico total, la actividad antioxidante total y la actividad de los enzimas antioxidantes después de 28 días a 7 °C. El quinto estudio mostró que tanto AS 0,5 mM como JaMe 0,1 mM, aplicados vía foliar o por riego, indujeron la tolerancia al frío y mantuvieron la calidad postcosecha de pimientos verdes almacenados a 2 °C durante 28 días más 2 días a 20 °C, siendo el riego con AS el más efectivo. La publicación final adoptó la forma de un artículo de revisión, cuyo propósito era destacar el valor nutricional y funcional de las semillas de pimiento como alternativa sostenible en agroalimentación, con el objetivo de promover una bioeconomía circular.En conclusión, los recientes avances en el conocimiento del pimiento verde han abarcado dos ámbitos principales. En primer lugar, se ha avanzado significativamente en la optimización de la fase de desarrollo fisiológico. En segundo lugar, se ha progresado considerablemente en la aplicación de AS y JaMe como estrategias precosecha en pimiento verde. Estos avances tienen el potencial de ayudar a las empresas hortidolas a mejorar el rendimiento de los cultivos, garantizar el suministro de pimientos verdes que cumplan con estándares de calidad más altos en la recolección y prolongar la vida útil. Además, una revisión exhaustiva de las semillas de pimiento como subproducto dentro de la industria subraya su valor potencial para diversas aplicaciones agroalimentarias. Las investigaciones posteriores se centrarían probablemente en investigar: 1) los efectos de los elicitores sobre la resistencia a la incidencia de podredumbres, ya que es uno de los principales problemas a los que se enfrenta la comercialización de los pimientos, 2) el desarrollo de estrategias pre- y postcosecha para prolongar la vida útil de pimiento IV Gama, que es una opción popular para ensaladas y diversos platos debido al crecimiento exponencial de la industria de procesado, y 3) el uso potencial de las semillas como ingrediente alimentario y bioestimulante vegetal.</description>
    <dc:date>2026-03-09T09:06:02Z</dc:date>
  </item>
  <item rdf:about="https://hdl.handle.net/11000/39501">
    <title>Study of triplicator diffraction gratings and holograms displayed onto spatial light modulators</title>
    <link>https://hdl.handle.net/11000/39501</link>
    <description>Título : Study of triplicator diffraction gratings and holograms displayed onto spatial light modulators
Autor : Gao, Shang
Resumen : This thesis comprises the design of phase-only triplicator diffraction gratings and computer-generated holograms (CGHs) and their encoding on phase-only liquid-crystal spatial light modulators (SLMs). Polychromatic CGHs are also developed, where the colour reconstructions are successfully realized by implementing chromatic dispersion control in the hologram design and synchronizing a high-speed SLM with and RGB laser.&#xD;
SLMs are programmable optoelectronic liquid-crystal microdisplays that allow the shaping of light beams, in amplitude, phase and polarization, with high spatial resolution and in real time, thus opening up a wide range of possibilities for bioengineering applications. Here we focus on displaying phase-only functions, since they have ideally 100% diffraction efficiency. However, the performance of SLMs is affected by their pixelated structure and other deletory effects, like phase flicker, refresh rate and light efficiency, that must be taken into account. Therefore, this thesis addresses both the design and characteristics of phase-only diffractive optical elements and the principal aspects that affect the ideal SLM performance, which must be properly evaluated and compensated.&#xD;
Triplicator gratings are 1x3 fan-out elements that generate three equally intense 0th and ±1st diffraction orders. The optimum triplicator phase design has received renewed attention for the implementation of trifocal diffractive intraocular lenses. Also, combined with a spiral phase function, it has served to generate arrays of vortex beams. In this thesis we extend the triplicator phase profile to triplicator holograms, where we are able to obtain the target image on the triplicator orders: direct and inverted image on the ±1st orders, and a delta function on the zero-order. In this way, we can realize an optical convolver and correlator by adding the hologram of the target image to the triplicator holograms. This optical element keeps the high efficiency of the optimum phase triplicator, what is of interest given the essential tool of correlators to check the likeness between two light patterns.&#xD;
This thesis is presented in the conventional mode of a doctoral thesis report and comprises two parts. The first part is devoted to the materials and methods employed: liquid-crystal (LC) on silicon SLMs and Fourier optics theory. When illuminated with linearly polarized light parallel to the LC director, LC-SLMs modulate the phase of input light by addressing them from a computer with a gray level pattern displayed on the device pixelated screen. The displayed pattern then diffracts the incoming light beam and reconstructs the desired optical wavefront. Three different phase-only SLMs are employed in this work; their characteristics and calibration are described in detail. An automatic calibration method based on a polarization camera is proposed and demonstrated on a monopixel LC retarder. The theoretical methods supporting this thesis rely on Fourier analysis, light diffraction theory and Fourier optics. Fourier analysis (including Fourier series and Fourier transform) is briefly reviewed together with the relevant properties that provide the tools for analysing diffraction gratings, calculating CGHs, and modelling the pixelated structure of SLMs. The optical architectures employed to obtain the optical Fourier transform are introduced using the classical simplest approach of Fourier optics, where light beams are considered within the paraxial approximation and a two-dimensional Fourier relation is obtained for the diffracted field with respect to the field behind the diffractive element.&#xD;
The second part of the thesis presents the analytical and experimental results, together with the corresponding discussions. First, using the Fourier series analysis, different phase-only triplicator designs are compared, including binary, multilevel and continuous phase profiles. They are implemented on a LC-SLM considering large periods (of 64 pixels) to verify their properties. The condition for generating a triplicator with high efficiency are discussed. The binary 𝜋 phase grating proves to be a feasible option, with a theoretical&#xD;
efficiency not so far from Gori’s optimum continuous profile, and also close to the efficiency of the multilevel phase profile that adapts well to the SLM pixelated structure. Interestingly, the large number of pixels available in the device enable us to apply a random multiplexing approach, which provides a triplicator with less efficiency but free of higher harmonic orders. However, the pixels feature a dead zone and a limited effective area, thus resulting in a periodical physical structure of the SLM. We model it as an amplitude grating of period equal to the pixel pitch. Using the Fourier transform approach we demonstrate that this SLM pixelated structure yields diffraction parasite orders with weights given by a sinc envelope. Consequently, this effect will be relevant when encoding on the SLM phase gratings with short periods, particularly at the spatial resolution limit (Nyquist limit), i.e. period of two times the pixel pitch, which must be binary phase profiles. The convolutional Fourier approach gives a clear physical insight into this phenomenon, where the target diffraction pattern is replicated on the SLM parasite orders. Therefore, there is a superposition between orders of the different replicas. Analytical expressions for the diffraction orders’ intensities are obtained in terms of the device fill factor and phase level of the binary grating. The triplicator’s diffraction efficiency is also derived and verified experimentally for binary gratings with different periods. As the period decreases down to two pixels (Nyquist limit), the fringing field effect cannot be ignored. Therefore, making use of the fact that the fringing effect smooths the phase profile, we build a nonlinear phase profile model that fits the experimental intensity curves and provides the actual distorted phase implemented on the SLM due to fringing.&#xD;
On the other hand, a systematic study on how to improve the reconstruction quality of phase-only CGHs is done as well. We compute the Fourier transform of the original image and retrieve only the phase (kinoform CGH) to implement it on the SLM, where advantage is taken of fast Fourier transform (FFT) kits in Python. For simple CGH computation, we explore several methods to improve the hologram intensity reconstruction, such as adding amplitude/phase noise to the original field, applying a limit window to the target area, and applying a nonlinear calculation to the original image. All the above methods aim at increasing the weight of the high-frequency component and flattening the intensity distribution in the reconstructed target field with high signal-to-noise ratio. The inverse Fourier transform algorithm (IFTA) is applied. Polychromatic CGHs are presented, where realistic reconstructions can be obtained. Red (R), green (G), and blue (B) lasers are modulated independently and synchronised to a 180 Hz LC-SLM so that, by properly scaling the RGB phase masks, we can compensate for the chromatic dispersion and recover the original colour object.&#xD;
Finally, the triplicator phase profile is applied to CGHs, leading to the reconstruction of the target image at the customized diffraction orders. This provides simultaneously an optical convolver and a correlator. This is useful because when two identical images (in all aspects) are correlated, a delta function will be shown in the reconstructed field. However, if the two images have any difference, like phase information that is invisible, the profile of the delta function will be broadened.&#xD;
This doctoral thesis thus contributes to the advance in the proper use of phase-only liquid-crystal SLMs for the accurate implementation of triplicator phase diffraction gratings and computer-generated holograms. Given the growing interest in using such programmable devices in optical imaging techniques, this thesis provides useful tools for bioengineering, telecommunications, or industry applications.; Esta tesis comprende el diseño de redes de difracción triplicadoras puras de fase y hologramas generados por ordenador, así como su realización experimental con moduladores espaciales de luz (conocidos como SLMs, iniciales de las palabras en inglés Spatial Light Modulators). También se han desarrollado hologramas policromáticos, en los que las reconstrucciones de color se consiguen implementando el control de la dispersión cromática en el diseño del holograma y sincronizando un SLM de alta velocidad con un láser RGB.&#xD;
Los SLM son micropantallas optoelectrónicas de cristal líquido programables que permiten modelar haces de luz, en amplitud, fase y polarización, con alta resolución espacial y en tiempo real, abriendo así un amplio abanico de posibilidades para aplicaciones de bioingeniería. Aquí nos centramos en la visualización de funciones de puras de fase, ya que tienen una eficiencia de difracción idealmente del 100%. Sin embargo, el rendimiento de los SLM se ve afectado por su estructura pixelada y otros efectos secundarios, como el parpadeo de fase, la frecuencia de refresco y la eficiencia, que deben tenerse en cuenta. Por ello, esta tesis aborda tanto el diseño y las características de los elementos ópticos difractivos puros de fase, así como los principales aspectos que afectan y limitan a su implementación física en SLMs, que deben ser adecuadamente evaluados y compensados.&#xD;
Las redes de difracción triplicadoras son elementos divisores de haz de 1×3 que generan tres órdenes de difracción (orden cero y órdenes ±1) con la misma intensidad. El diseño óptimo de la red de fase triplicadora ha recibido renovada reciente atención para la implementación de lentes intraoculares difractivas trifocales. Además, combinado con una función de fase en espiral, ha servido para generar matrices de haces vorticiales. En esta tesis extendemos el perfil de fase de la red triplicadora a los hologramas triplicadores, de modo que se obtienen tres órdenes de ifracción que contienen las imágenes directa e invertida en los órdenes ±1, y una función delta en el orden cero. De este modo, podemos realizar un elemento óptico convolucionador y correlador simplemente añadiendo también el holograma de la imagen objetivo al holograma triplicador. Este elemento mantiene la eficiencia de la red optima triplicadora, y tiene interés ya que el correlador óptico es una herramienta esencial para comprobar la semejanza entre dos patrones de luz.&#xD;
Esta tesis se presenta en el modo convencional de una memoria de tesis doctoral y consta de dos partes. La primera parte está dedicada a los materiales y métodos empleados: se introducen los dispositivos SLM de cristal líquido sobre silicio, conocidos como LCOS (de las iniciales de las palabras en inglés Liquid-Crystal On Silicon) y la teoría de la óptica de Fourier. Cuando se iluminan con luz polarizada linealmente paralela al director del cristal líquido, losdispositivos LCOS-SLM modulan la distribución de fase de la luz de entrada de forma controlada desde un ordenador mediante un patrón de niveles de gris. A continuación, el patrón de luz generado en la pantalla LCOS se difracta y reconstruye en el plano de Fourier el frente de onda óptico deseado. En este trabajo se emplean tres SLM puros de fase diferentes; sus características y calibración se describen en detalle. Se propone un método de calibración automática basado en una cámara de polarización y se demuestra en un retardador de cristal líquido de un único píxel. Los métodos teóricos que sustentan esta tesis se basan en el análisis de Fourier, la teoría de difracción de la luz y la óptica de Fourier. El análisis de Fourier (incluidas las series de Fourier y la transformada de Fourier) se revisa brevemente junto con las propiedades relevantes que proporcionan las herramientas para analizar las redess de difracción, calcular los hologramas generados por ordenador y modelizar la&#xD;
estructura pixelada de los SLM. Las arquitecturas ópticas empleadas para obtener la transformada de Fourier óptica se introducen utilizando el enfoque clásico de la óptica de Fourier, en el que los haces de luz se consideran dentro de la aproximación paraxial y se obtiene una relación de Fourier bidimensional para el campo difractado.&#xD;
La segunda parte de la tesis presenta los resultados analíticos y experimentales, junto con las correspondientes discusiones. En primer lugar, utilizando el análisis de series de Fourier, se comparan diferentes diseños de redes de difracción triplicadoras puras de fase, incluyendo perfiles de fase binarios, multinivel y continuos. Se implementan en un LCOS-SLM considerando periodos grandes (de 64 píxeles) y se verifican sus propiedades. Se discuten las condiciones para generar un triplicador con alta eficiencia. La red de diffración binaria de fase 𝜋 binaria se muestra como una opción factible, con una eficiencia teórica no tan alejada del perfil continuo óptimo de Gori, y también cercana a la eficiencia del perfil de fase multinivel que se adapta bien a la estructura pixelada de los SLM. El gran número de píxeles disponibles en el dispositivo nos permite aplicar un enfoque de multiplexación aleatoria, que proporciona un triplicador con menor eficiencia pero libre de órdenes armónicos superiores. Sin embargo, los píxeles presentan una zona muerta y un área efectiva limitada, lo que da lugar a la estructura física periódica del SLM. Ésta se modeliza como una red de difracción de amplitud de periodo igual a la distancia entre píxeles. Utilizando el enfoque de la transformada de Fourier demostramos que esta estructura pixelada del SLM produce órdenes de difracción parásitos con pesos dados por una envolvente en forma de función seno-cardinal (sinc). En consecuencia, este efecto es relevante al codificar en el SLM redes de fase con periodos cortos, particularmente en el límite de resolución espacial (límite de Nyquist), es decir, periodos de dos píxeles, que forzosamente deben ser perfiles binarios de fase. El enfoque convolucional ofrece una visión física clara dele fenómeno, en el que el patrón de difracción del objetivo se replica en los órdenes parásitos de la SLM. Por lo tanto, en el caso de las redes de difracción, existe una superposición entre los órdenes de las distintas réplicas. Se obtienen expresiones analíticas para las intensidades de los órdenes de difracción en función del factor de llenado del dispositivo y del nivel de fase de la red binaria. También se deduce la eficiencia de difracción del triplicador y se verifica experimentalmente para redes binarias con diferentes periodos. A medida que el periodo disminuye hasta alcanzar los dos píxeles (límite de Nyquist), no puede ignorarse el efecto conocido como fringing que produce una distorsión de la función de fase implementada por el dispositivo, que suaviza el perfil de fase. Este efecto se evalúa mediante un modelo de perfil de fase no lineal que se ajusta a las curvas de intensidad experimentales y proporciona la fase distorsionada real implementada en el SLM.&#xD;
Por otro lado, también se realiza un estudio sistemático sobre cómo mejorar la calidad de reconstrucción de los hologramas generados por ordenador puros de fase. Calculamos la transformada de Fourier de la imagen original aprovechando las funciones de transfomada de Fourier rápida (FFT del inglés, Fast Fourier Transform) existentes en código Pyhton, y recuperamos solamente la distribución de fase (holograma tipo kinoform), que se implementarla en el SLM. En el cálculo simple de los hologramas de fase, exploramos varios métodos para mejorar la reconstrucción de la intensidad, como añadir ruido de amplitud o fase a la función original, aplicar una ventana límite a la zona objetivo de reconstrucción o aplicar un cálculo no lineal a la imagen original. Todos los métodos anteriores tienen como objetivo aumentar el peso del componente de alta frecuencia y aplanar la distribución de intensidad en el campo reconstruido, con una elevada relación señal/ruido. Se aplica el algoritmo de transformada de Fourier inversa (IFTA, del inglés inverse Fourier transform algorithm). Se presentan también hologramas policromáticos, con los que obtener reconstrucciones realistas. Se utiliza un sistema combinado de tres láseres rojo (R), verde (G) y azul (B) que se modulan independientemente y se sincronizan con un LCOS-SLM de 180&#xD;
Hz, de modo que, escalando adecuadamente las funciones de fase RGB, podemos compensar la dispersión cromática y recuperar el objeto en color original.&#xD;
Por último, el perfil de fase de la red triplicadora se aplica a los hologramas en color, lo que conduce a la reconstrucción de la imagen objetivo en los órdenes de difracción personalizados. Esto proporciona simultáneamente un elemento óptico convolucionador y correlador en color. Esto es útil porque cuando dos imágenes idénticas (en todos los aspectos) están correlacionadas, se mostrará una función delta en el campo reconstruido. Sin embargo, si las dos imágenes tienen alguna diferencia, como información de fase que es invisible, el perfil de la función delta se ensanchará.&#xD;
Esta tesis doctoral contribuye así al avance en el uso adecuado de SLMs de cristal líquido de sólo fase para la implementación precisa de rejillas de difracción de fase triplicadora y hologramas generados por ordenador. Dado el creciente interés en el uso de este tipo de dispositivos programables en técnicas de imagen óptica, esta tesis proporciona herramientas útiles para múltiples aplicaciones de bioingeniería, telecomunicaciones o industriales.</description>
    <dc:date>2026-03-09T09:04:27Z</dc:date>
  </item>
</rdf:RDF>

