La espectrofotometría es una técnica analítica cuantitativa que se utiliza para medir la intensidad de la luz absorbida, transmitida o reflejada por una muestra en función de la longitud de onda, generalmente a través de las regiones espectrales ultravioleta, visible e infrarroja cercana.[1] Este método se basa en la interacción entre la radiación electromagnética y la materia, lo que permite determinar las concentraciones de sustancias en soluciones mediante el principio de que la absorción es proporcional a la cantidad de especies absorbentes presentes.[2]
El principio fundamental de la espectrofotometría es la ley de Beer-Lambert (también conocida como ley de Beer), que establece que la absorbancia (A) de la luz de una muestra es directamente proporcional a la concentración (c) de las especies absorbentes, la longitud del camino (l) a través de la muestra y la absortividad molar (ε) específica de la sustancia en una longitud de onda determinada: A = εcl.[3] Esta ley supone luz monocromática, soluciones diluidas y ninguna interacción química que altere la absorción, lo que permite una cuantificación precisa cuando se cumplen estas condiciones.[4] Los espectrofotómetros, los instrumentos empleados, normalmente comprenden una fuente de luz (como una lámpara de tungsteno para luz visible o una lámpara de deuterio para UV), un monocromador o filtro para seleccionar longitudes de onda, una cubeta o compartimento de muestra y un detector como un tubo fotomultiplicador para medir la intensidad de la luz.[2]
En la práctica, la espectrofotometría encuentra amplias aplicaciones en todas las disciplinas científicas, incluida la química analítica para determinar concentraciones de iones, compuestos orgánicos y productos farmacéuticos; bioquímica para cuantificar biomoléculas como ADN, ARN y proteínas mediante sus espectros de absorción característicos; y biología para monitorear el crecimiento microbiano mediante mediciones de turbidez a alrededor de 600 nm.[5][6] También es esencial en ciencias ambientales para detectar contaminantes como metales pesados o nitratos en muestras de agua, y en química clínica para analizar componentes sanguíneos con alta precisión y sensibilidad.[7] La naturaleza no destructiva de la técnica y su capacidad para proporcionar resultados rápidos la hacen indispensable en la investigación y el control de calidad.[8]
Históricamente, la espectrofotometría evolucionó a partir de observaciones de absorción de luz realizadas en los siglos XVIII y XIX por Pierre Bouguer (1729), Johann Heinrich Lambert (1760) y August Beer (1852), y la instrumentación moderna surgió en la década de 1930 a través de desarrollos como el espectrofotómetro Coleman, que facilitó su adopción generalizada en los laboratorios. Desde entonces, los avances en la tecnología de detectores y la automatización han mejorado su precisión, ampliando su utilidad a campos como la ciencia de materiales y la industria farmacéutica.[10]
Espectrofotómetros
Introducción
La espectrofotometría es una técnica analítica cuantitativa que se utiliza para medir la intensidad de la luz absorbida, transmitida o reflejada por una muestra en función de la longitud de onda, generalmente a través de las regiones espectrales ultravioleta, visible e infrarroja cercana.[1] Este método se basa en la interacción entre la radiación electromagnética y la materia, lo que permite determinar las concentraciones de sustancias en soluciones mediante el principio de que la absorción es proporcional a la cantidad de especies absorbentes presentes.[2]
El principio fundamental de la espectrofotometría es la ley de Beer-Lambert (también conocida como ley de Beer), que establece que la absorbancia (A) de la luz de una muestra es directamente proporcional a la concentración (c) de las especies absorbentes, la longitud del camino (l) a través de la muestra y la absortividad molar (ε) específica de la sustancia en una longitud de onda determinada: A = εcl.[3] Esta ley supone luz monocromática, soluciones diluidas y ninguna interacción química que altere la absorción, lo que permite una cuantificación precisa cuando se cumplen estas condiciones.[4] Los espectrofotómetros, los instrumentos empleados, normalmente comprenden una fuente de luz (como una lámpara de tungsteno para luz visible o una lámpara de deuterio para UV), un monocromador o filtro para seleccionar longitudes de onda, una cubeta o compartimento de muestra y un detector como un tubo fotomultiplicador para medir la intensidad de la luz.[2]
En la práctica, la espectrofotometría encuentra amplias aplicaciones en todas las disciplinas científicas, incluida la química analítica para determinar concentraciones de iones, compuestos orgánicos y productos farmacéuticos; bioquímica para cuantificar biomoléculas como ADN, ARN y proteínas mediante sus espectros de absorción característicos; y biología para monitorear el crecimiento microbiano mediante mediciones de turbidez a alrededor de 600 nm.[5][6] También es esencial en ciencias ambientales para detectar contaminantes como metales pesados o nitratos en muestras de agua, y en química clínica para analizar componentes sanguíneos con alta precisión y sensibilidad.[7] La naturaleza no destructiva de la técnica y su capacidad para proporcionar resultados rápidos la hacen indispensable en la investigación y el control de calidad.[8]
Principios básicos
Absorción y transmisión de luz.
La espectrofotometría se define como la medición cuantitativa de la reflexión, transmisión o absorción de la luz por un material en función de la longitud de onda de la luz.[11] Esta técnica se basa en la interacción de la radiación electromagnética con la materia en regiones específicas del espectro, principalmente las regiones ultravioleta (UV, aproximadamente 200 a 400 nm), visible (400 a 780 nm) e infrarroja (IR, 780 nm a 1 mm), donde se producen transiciones moleculares y atómicas.
Cuando la luz encuentra una muestra, puede sufrir varias interacciones fundamentales: absorción, transmisión, reflexión o dispersión. La absorción ocurre cuando los fotones son capturados por electrones o moléculas en la muestra, excitándolos de niveles de energía más bajos a más altos si la energía del fotón coincide con la diferencia de energía entre esos niveles. La transmisión se refiere a la luz que pasa a través de la muestra sin interacción significativa, manteniendo su intensidad y dirección. La reflexión implica que la luz rebota en la superficie de la muestra, a menudo en materiales opacos o altamente refractivos, mientras que la dispersión redirige la luz en múltiples direcciones debido a interacciones con partículas o faltas de homogeneidad dentro de la muestra.
Los ejemplos cualitativos ilustran vívidamente estos procesos; por ejemplo, una solución que parece azul a simple vista transmite longitudes de onda azules mientras absorbe luz roja y naranja complementaria, ya que los fotones absorbidos promueven transiciones electrónicas en las moléculas de tinte. De manera similar, al dispersarse, los líquidos lechosos, como la leche diluida, redirigen la luz en varias direcciones debido a los glóbulos de grasa, lo que reduce la transmisión general. Estas interacciones sustentan el color y la opacidad observados en los materiales.[12]
Las muestras en espectrofotometría se preparan en formas tales como soluciones (generalmente disueltas en solventes dentro de celdas transparentes), sólidos (molidos en polvo, incrustados en matrices o analizados como películas delgadas) y gases (contenidos en celdas especializadas con volúmenes definidos). La longitud del camino (la distancia que recorre la luz a través de la muestra) influye cualitativamente en el grado de interacción; un camino más largo aumenta la oportunidad de absorción o dispersión, intensificando el efecto en comparación con un camino más corto. Estos principios proporcionan la base cualitativa para modelos cuantitativos como la ley de Beer-Lambert.[11][15]
Ley Beer-Lambert
La Ley de Beer-Lambert, también conocida como Ley de Beer, proporciona la relación cuantitativa fundamental en espectrofotometría entre la absorción de luz por un material y las propiedades de ese material. Afirma que la absorbancia AAA de una solución es directamente proporcional a la concentración ccc de la especie absorbente y la longitud del camino lll a través del cual pasa la luz, expresada como A=ϵ⋅c⋅lA = \epsilon \cdot c \cdot lA=ϵ⋅c⋅l, donde ϵ\epsilonϵ es la absortividad molar (o coeficiente de extinción molar) específica de la sustancia en un momento dado. longitud de onda.[16] Esta ley permite la determinación lineal de concentraciones desconocidas a partir de valores de absorbancia medidos, lo que forma la base para el análisis cuantitativo en espectroscopia.[17]
Históricamente, la ley tiene sus orígenes en la obra del siglo XVIII de Pierre Bouguer, quien en 1729 describió la atenuación de la luz a través de un medio homogéneo proporcional a la distancia recorrida, y Johann Heinrich Lambert, quien en 1760 formalizó esto en su tratado Photometria como la caída exponencial de la intensidad de la luz. August Beer amplió el principio en 1852 incorporando la dependencia de la concentración para absorber soluciones, lo que llevó a la formulación combinada Bouguer-Beer-Lambert. La derivación comienza con la forma diferencial de atenuación de la luz: el cambio en la intensidad dIdIdI a través de una longitud de trayectoria infinitesimal dldldl es proporcional a la intensidad III, la concentración ccc y dldldl, dada por dI=−κ⋅I⋅c⋅dldI = -\kappa \cdot I \cdot c \cdot dldI=−κ⋅I⋅c⋅dl, donde κ\kappaκ es una constante. Integrando esto desde la intensidad inicial I0I_0I0 en l=0l=0l=0 a la intensidad transmitida III en la longitud del camino lll se obtiene I=I0e−κclI = I_0 e^{-\kappa c l}I=I0e−κcl. Al definir la transmitancia T=I/I0=10−AT = I / I_0 = 10^{-A}T=I/I0=10−A (usando un logaritmo de base 10 para mayor comodidad en la medición), la absorbancia se convierte en A=−log10(T)=(κcl)/ln(10)A = -\log_{10}(T) = (\kappa c l) / \ln(10)A=−log10(T)=(κcl)/ln(10), con ϵ=κ/ln(10)\epsilon = \kappa / \ln(10)ϵ=κ/ln(10) en unidades de L mol−1^{-1}−1 cm−1^{-1}−1.[18][17]
La absorbancia AAA cuantifica la fracción de luz absorbida, vinculándola directamente a la transmitancia como T=I/I0=10−AT = I / I_0 = 10^{-A}T=I/I0=10−A, lo que linealiza la caída exponencial para un trazado práctico de AAA frente a ccc. La absortividad molar ϵ\epsilonϵ caracteriza la eficiencia de absorción intrínseca de la especie, que normalmente oscila entre 1 y 105^55 L mol−1^{-1}−1 cm−1^{-1}−1 dependiendo del cromóforo y la longitud de onda, mientras que la longitud de trayectoria lll se fija en configuraciones estándar (por ejemplo, cubetas de 1 cm). Esta proporcionalidad supone iluminación monocromática, soluciones diluidas en las que las partículas de soluto actúan de forma independiente sin interacciones intermoleculares y efectos insignificantes de dispersión, fluorescencia o refracción que podrían alterar la trayectoria de la luz.[17]
Las desviaciones de la ley ocurren en condiciones no ideales, como altas concentraciones donde la agregación molecular o las interacciones electrostáticas reducen la absortividad efectiva, lo que lleva a respuestas de absorbancia sublineales. Las fuentes de luz policromática introducen errores al promediar ϵ\epsilonϵ en longitudes de onda, mientras que los equilibrios químicos (por ejemplo, la disociación de ácidos débiles) pueden cambiar con la concentración, alterando la proporción de las especies absorbentes. Factores instrumentales como la luz parásita o las trayectorias no uniformes del haz los exacerban, pero la ley se aplica con precisión a los sistemas monocromáticos diluidos.[19]
Instrumentación y Diseño
Componentes principales
Los componentes centrales de un espectrofotómetro forman el hardware fundamental que permite medir la absorción o transmisión de luz por una muestra, adhiriéndose a principios como la Ley de Beer-Lambert para el análisis cuantitativo. Estos elementos incluyen la fuente de luz para generar radiación, el selector de longitud de onda para aislar longitudes de onda específicas, el portamuestras para posicionar el material en estudio, el detector para capturar la luz transmitida, la configuración de la trayectoria óptica para la gestión del haz y la electrónica básica para el procesamiento de señales. Juntos, garantizan una recopilación precisa de datos espectrales en varios rangos de longitud de onda.
La fuente de luz proporciona un haz estable de radiación electromagnética que abarca la región espectral deseada y normalmente emite un espectro continuo en lugar de espectros de líneas discretas para una amplia aplicabilidad en mediciones de absorción. Para el rango visible, las lámparas halógenas de tungsteno se utilizan comúnmente debido a su salida continua de aproximadamente 320 nm a 2500 nm y su alta intensidad a temperaturas de funcionamiento de alrededor de 3000 K.[20] En la región ultravioleta (UV), las lámparas de deuterio sirven como fuente principal y ofrecen un espectro continuo de aproximadamente 190 nm a 400 nm a través de una descarga eléctrica en gas de deuterio. Para la espectroscopia infrarroja (IR), una globar (una varilla de carburo de silicio calentada a 1000-1500 K) actúa como un emisor de cuerpo negro que proporciona radiación continua de hasta 50 μm, aunque requiere refrigeración por agua para gestionar el calor.
El monocromador o selector de longitud de onda dispersa la luz policromática de la fuente para aislar un ancho de banda estrecho, minimizando la luz parásita y logrando una alta resolución espectral esencial para mediciones precisas. Las rejillas de difracción, a menudo regladas u holográficas, se emplean ampliamente en instrumentos modernos por su eficiencia y capacidad para proporcionar resoluciones mejores que 1 nm al reflejar la luz en ángulos determinados por la ecuación de la rejilla, al mismo tiempo que reducen la luz parásita mediante ángulos de resplandor optimizados. Los prismas, generalmente hechos de cuarzo o sílice fundida, ofrecen un método de dispersión alternativo mediante refracción, adecuado para rangos UV-visibles con resoluciones de alrededor de 2 a 5 nm, aunque adolecen de límites de dispersión no lineal y absorción de material. Los filtros de interferencia brindan una selección de longitud de onda más simple para bandas fijas, utilizando recubrimientos de película delgada para transmitir bandas de paso estrechas (por ejemplo, 10 nm de ancho) mientras bloquean otras, ideales para aplicaciones que priorizan el rendimiento sobre la resolución fina.[23]
El soporte de muestra coloca el analito en la ruta óptica, asegurando una longitud de interacción de luz definida y reproducible para permitir lecturas de absorbancia consistentes. Las cubetas estándar, con una longitud de paso típica de 1 cm, están construidas con cuarzo para transparencia UV (hasta 190 nm) o vidrio óptico para longitudes de onda visibles (por encima de 350 nm), ambas con ventanas pulidas para evitar pérdidas por dispersión.[24] Las celdas de flujo, utilizadas en sistemas de flujo continuo, mantienen los mismos estándares de longitud de recorrido pero permiten la introducción dinámica de muestras a través de conexiones de tubos, acomodando volúmenes tan bajos como 10 a 50 μL para análisis de alto rendimiento.[25]
Los detectores convierten la intensidad de la luz transmitida en una señal eléctrica, con un rendimiento caracterizado por una alta relación señal-ruido (SNR) y sensibilidad a bajos niveles de luz para detectar absorciones débiles. Los fotodiodos, como los basados en silicio, ofrecen confiabilidad de estado sólido y tiempos de respuesta rápidos (microsegundos) con eficiencias cuánticas de hasta el 80% en el rango visible, adecuados para mediciones de rutina donde la SNR excede 1000:1 bajo iluminación típica.[26] Los tubos fotomultiplicadores (PMT) brindan una sensibilidad excepcional a través de la multiplicación de electrones, logrando ganancias de 10 ^ 6 a 10 ^ 8 y capacidades de detección de fotón único con mejoras de SNR en factores de 10 a 100 con respecto a los fotodiodos en aplicaciones UV-visibles con poca luz. Los conjuntos de dispositivos de carga acoplada (CCD) permiten la detección multicanal para la lectura simultánea de longitudes de onda, ofreciendo un alto rango dinámico (hasta 10^4) y bajo ruido (lectura <10 electrones) para espectrofotómetros basados en conjuntos.[26]
La trayectoria óptica general dirige la luz desde la fuente al detector, con configuraciones diseñadas para compensar las variaciones instrumentales. En configuraciones de haz único, la luz pasa secuencialmente a través de la muestra y la referencia, lo que requiere alternancia para restar efectos de fondo, lo que simplifica el diseño pero exige fuentes estables para mayor precisión.[28] Las configuraciones de doble haz dividen el haz mediante espejos o cortadores, dirigiendo un camino a través de la muestra y el otro a través de una referencia simultáneamente, lo que permite una relación en tiempo real para minimizar la deriva y mejorar la precisión en las mediciones de absorbancia.
La electrónica básica procesa la salida del detector para la grabación digital, incluidos amplificadores para amplificar señales débiles y convertidores de analógico a digital (ADC) para la adquisición de datos. Los amplificadores, a menudo de tipo operativo con ganancias de 10^3–10^5, acondicionan la fotocorriente para que coincida con los rangos de entrada del ADC (por ejemplo, 0–5 V), filtrando el ruido para mantener la integridad SNR.[29] Los ADC muestrean la señal amplificada a velocidades de 10 a 100 kHz con una resolución de 12 a 16 bits, convirtiendo intensidades analógicas en valores digitales para la reconstrucción espectral y la salida a computadoras o pantallas.
Tipos de espectrofotómetros
Los espectrofotómetros se clasifican según su configuración óptica, mecanismos de detección, forma física y modos operativos, cada uno de los cuales se adapta a necesidades analíticas específicas en términos de precisión, velocidad y portabilidad./13:_Introducción_a_la_espectrometría_de_absorción_ultravioleta_visible/13.4:_Instrumentación)
Los espectrofotómetros de haz único dirigen un único haz de luz a través de la muestra hasta el detector, lo que requiere mediciones secuenciales de la referencia y la muestra para calcular la absorbancia. Este diseño ofrece un alto rendimiento energético y sensibilidad debido al haz indiviso, lo que lo hace rentable y adecuado para análisis de rutina donde se prioriza la simplicidad. Sin embargo, es susceptible a fluctuaciones en la intensidad de la fuente de luz o en la respuesta del detector, lo que requiere una calibración frecuente entre lecturas./13:_Introduction_to_Ultraviolet_Visible_Absortion_Spectrometry/13.4:_Instrumentation)[31]
Por el contrario, los espectrofotómetros de doble haz dividen la luz en dos caminos (uno a través de la muestra y otro a través de una referencia), lo que permite la medición simultánea y la sustracción en tiempo real de señales de fondo para mejorar la estabilidad frente a variaciones de la fuente. Esta configuración sobresale en análisis cuantitativos que requieren alta precisión durante períodos prolongados, aunque genera costos más altos y posibles problemas de alineación debido a la óptica de división del haz./13:_Introduction_to_Ultraviolet_Visible_Absortion_Spectrometry/13.4:_Instrumentation)[32]
Los espectrofotómetros de barrido emplean un monocromador, como una rejilla, para seleccionar secuencialmente longitudes de onda para la detección, proporcionando una alta resolución espectral para el análisis detallado de bandas de absorción estrechas. Este enfoque es ideal para aplicaciones que exigen un control preciso de la longitud de onda, pero da como resultado tiempos de escaneo más lentos debido al movimiento mecánico.[33]
Los espectrofotómetros basados en matrices, incluidos detectores de diodos o multicanal, capturan todo el espectro simultáneamente dispersando la luz a través de una serie de detectores, lo que permite una adquisición más rápida y sin piezas móviles para mejorar la robustez. Estos sistemas facilitan mediciones de alto rendimiento y son más compactos, aunque pueden ofrecer una resolución ligeramente menor en comparación con los tipos de escaneo debido a limitaciones de píxeles.[33]
Los espectrofotómetros portátiles y de mano incorporan componentes miniaturizados como LED alimentados por baterías y detectores compactos para implementación en el campo, lo que permite el análisis in situ sin transporte de muestras. Por ejemplo, en la industria automotriz, estos dispositivos se utilizan para lograr una coincidencia de colores precisa en la reparación inteligente de dispositivos móviles, donde los técnicos realizan reparaciones in situ para daños estéticos menores del vehículo, como rayones o abolladuras, utilizando herramientas como PPG RapidMatch XI para garantizar una formulación precisa de la pintura sin tener que devolver el vehículo al taller. Si bien brindan comodidad y resultados rápidos en entornos ambientales o industriales, las ventajas y desventajas incluyen una sensibilidad reducida, rangos de longitud de onda más estrechos y una resolución más baja en relación con los modelos estacionarios.[34][35][36][37]
Desarrollo histórico
Innovaciones tempranas
Los fundamentos de la espectrofotometría se remontan al siglo XVIII, cuando el matemático y astrónomo francés Pierre Bouguer publicó en 1729 su trabajo sobre la atenuación de la luz en la atmósfera terrestre, estableciendo que la intensidad de la luz disminuye proporcionalmente con la distancia recorrida a través de un medio.[43] En 1760, el físico alemán Johann Heinrich Lambert amplió este principio en su tratado Photometria, formulando una ley general que establece que la transmitancia de la luz a través de cualquier medio homogéneo es una función exponencial de la longitud del camino, independiente de la intensidad inicial de la luz. Esta ley de Lambert proporcionó la base teórica para las mediciones cuantitativas de la absorción de luz. El químico alemán August Beer avanzó aún más el concepto en 1852 al demostrar que la absorción en soluciones líquidas también es proporcional a la concentración de la sustancia absorbente, lo que llevó a la ley combinada de Beer-Lambert como piedra angular de las primeras teorías espectrofotométricas.
Precediendo a los espectrofotómetros modernos, la colorimetría visual surgió a mediados del siglo XIX como un precursor práctico para medir soluciones coloreadas. En la década de 1850, el fabricante de instrumentos francés Louis Jules Duboscq desarrolló el colorímetro Duboscq, un dispositivo que permitía una evaluación visual comparativa de la intensidad del color ajustando la altura de las columnas de líquido en tubos de vidrio para que coincidieran con una solución estándar, ampliamente utilizada para análisis médicos como la determinación de hemoglobina.[45] Este instrumento marcó un primer paso hacia el análisis de color cuantitativo estandarizado, uniendo la observación cualitativa y la precisión instrumental.
A principios del siglo XX, la transición a la detección fotoeléctrica revolucionó la espectrofotometría al permitir mediciones más precisas y objetivas. Alrededor de la década de 1920, el espectroscopista Arthur C. Hardy del MIT fue pionero en espectrofotómetros fotoeléctricos que incorporaban fotocélulas de capa de barrera, que convertían la intensidad de la luz directamente en señales eléctricas, mejorando la sensibilidad con respecto a los métodos visuales y facilitando el análisis de líneas espectrales. Estas innovaciones sentaron las bases para el registro automatizado de espectros. En 1938, Coleman Instruments presentó el espectrofotómetro Modelo 11, uno de los primeros instrumentos comerciales UV-visibles que contribuyó al campo emergente.
La comercialización posterior a la Segunda Guerra Mundial aceleró el desarrollo de instrumentos, y el químico Arnold O. Beckman introdujo el espectrofotómetro Beckman DU en 1941, el primer modelo UV-visible comercialmente exitoso que utiliza un monocromador de prisma de cuarzo y un detector de fotocélulas para un análisis cuantitativo preciso en longitudes de onda ultravioleta y visible. El diseño de Beckman, nacido de las necesidades de análisis de vitaminas en tiempos de guerra, se convirtió en una herramienta estándar en los laboratorios de todo el mundo. Al mismo tiempo, el físico Gerhard Herzberg avanzó en la espectroscopia molecular de alta resolución en las décadas de 1930 y 1940 a través de su trabajo sobre estructuras atómicas y moleculares, contribuyendo con técnicas para identificar radicales libres y permitiendo mediciones de absorción más finas en medios gaseosos.
Un hito clave en la década de 1940 fue la adopción generalizada de los tubos fotomultiplicadores (PMT), inventados en la década de 1930 pero prácticamente integrados en los espectrofotómetros durante esta década, que amplificaban señales de luz débil en factores de millones, permitiendo la detección sensible de la absorción ultravioleta y transformando la espectrofotometría cuantitativa de aplicaciones cualitativas a aplicaciones de alta precisión.
Avances modernos
La integración de las tecnologías digitales en la espectrofotometría comenzó en la década de 1980 y se aceleró durante la década de 2000, pasando de sistemas analógicos a sistemas controlados por computadora que permiten la adquisición automatizada de datos, el procesamiento en tiempo real y el análisis espectral avanzado. Estos sistemas incorporan software para tareas como la corrección de la línea base, que elimina la deriva instrumental y el ruido para mejorar la precisión, y algoritmos de ajuste de picos que desconvolucionan las bandas espectrales superpuestas para una cuantificación precisa.[52][53] Este cambio ha mejorado la reproducibilidad y la accesibilidad del usuario, lo que permite a los investigadores realizar análisis complejos sin intervención manual.[54]
Los esfuerzos de miniaturización en la década de 2010 han llevado a espectrofotómetros portátiles integrados con teléfonos inteligentes, aprovechando la cámara del dispositivo y la potencia de procesamiento para mediciones in situ en entornos con recursos limitados. Estos dispositivos, que a menudo utilizan matrices de LED como fuentes de luz, permiten realizar pruebas en el lugar de atención mediante la captura de espectros de absorbancia a través de aplicaciones que procesan imágenes en datos cuantitativos, logrando límites de detección comparables a los modelos de mesa para analitos como la glucosa o los metales pesados.[55][56] Para complementar esto, los dispositivos de laboratorio en chip incorporan canales de microfluidos con detección espectrofotométrica integrada para ensayos rápidos y de bajo volumen, lo que facilita las aplicaciones en diagnóstico clínico y monitoreo ambiental.[57]
Las técnicas con guiones tienen una especificidad avanzada al combinar la espectrofotometría con métodos de separación, como la cromatografía líquida de alto rendimiento con detección ultravioleta (HPLC-UV), que separa mezclas complejas antes de la medición de la absorbancia UV para identificar y cuantificar compuestos en productos farmacéuticos y naturales.[58] De manera similar, la integración con la espectrometría de masas (LC-MS) combina separación cromatográfica, detección UV y análisis de masas para la elucidación estructural, lo que mejora la sensibilidad a las impurezas a nivel de trazas en el desarrollo de fármacos.[59] Estos enfoques proporcionan datos ortogonales, lo que reduce los falsos positivos en muestras de múltiples componentes.
Los métodos computacionales, incluida la quimiometría, han revolucionado la interpretación espectral a través de técnicas multivariadas como el análisis de componentes principales (PCA) para la reducción de dimensionalidad y la regresión de mínimos cuadrados parciales (PLS) para el modelado predictivo de conjuntos de datos espectrales.[60] En los últimos años, se ha aplicado la inteligencia artificial (IA) para la deconvolución espectral, utilizando algoritmos de aprendizaje automático para resolver picos superpuestos en datos ruidosos, mejorando la precisión en campos como la seguridad alimentaria y la metabolómica.
Espectrofotometría UV-Visible
Principios y configuración
La espectrofotometría UV-Visible, también conocida como espectroscopia UV-Vis, es una técnica que mide la absorción de luz ultravioleta (200–400 nm) y visible (400–800 nm) por muestras, correspondiente a transiciones electrónicas en moléculas como π → π* en sistemas conjugados o n → π* en grupos que contienen pares libres como carbonilos. Estas transiciones promueven electrones desde el estado fundamental al excitado, con longitudes de onda de absorción determinadas por la brecha de energía influenciada por los cromóforos y auxocromos.
La base cuantitativa es la ley de Beer-Lambert:
A=ϵclA = \epsilon c lA=ϵcl
donde AAA es la absorbancia (A=−log10(T)A = -\log_{10}(T)A=−log10(T), TTT = transmitancia), ϵ\epsilonϵ es la absortividad molar (L mol⁻¹ cm⁻¹), ccc es la concentración (mol L⁻¹) y lll es la longitud del camino (normalmente 1 cm). Esto supone soluciones diluidas, sin dispersión y luz monocromática. Los espectros muestran bandas anchas debido al acoplamiento vibrónico, y los disolventes provocan cambios batocrómicos o hipsocrómicos.[68]
Los instrumentos cuentan con una fuente de luz ultravioleta (lámpara de deuterio, 190 a 400 nm), una fuente visible (lámpara halógena de tungsteno, 320 a 1100 nm) y, a menudo, una configuración combinada. Un monocromador (rejilla de difracción o prisma) selecciona longitudes de onda, seguido de un compartimento de muestra con cubetas de cuarzo emparejadas (para UV; vidrio solo para visible) que contienen de 1 a 3 ml de solución. Los detectores incluyen tubos fotomultiplicadores para una alta sensibilidad o conjuntos de fotodiodos para un escaneo rápido. Los diseños de doble haz alternan entre los haces de muestra y de referencia para corregir las desviaciones, lo que permite mediciones precisas en 0,001 a 2 unidades de absorbancia.[11]
La preparación de muestras implica disolver analitos en disolventes no absorbentes (p. ej., etanol, agua); las longitudes del camino se ajustan para absorbentes fuertes (por ejemplo, 0,1 cm para muestras concentradas). El escaneo generalmente cubre 200 a 800 nm con una resolución de 1 a 2 nm, lo que produce gráficos de absorbancia versus longitud de onda para el análisis.[67]
Aplicaciones y ejemplos
La espectrofotometría UV-Vis destaca en la determinación cuantitativa de concentraciones mediante curvas de calibración, así como en la identificación cualitativa de grupos funcionales mediante valores característicos de λ_max. En química analítica, analiza metales de transición mediante colorimetría (por ejemplo, cobre con amoníaco a 620 nm) o productos farmacéuticos como el paracetamol a 243 nm.[69]
Las aplicaciones bioquímicas incluyen la cuantificación de ácidos nucleicos (A_{260} = 1 para 50 μg/mL de ADNds, ε ≈ 6600 M⁻¹ cm⁻¹ por nucleótido) y ensayos de proteínas (A_{280} para tirosina/triptófano; método de Bradford a 595 nm con colorante Coomassie). Monitorea la cinética enzimática, como la producción de NADH en deshidrogenasas a 340 nm (ε = 6220 M⁻¹ cm⁻¹) y cambios conformacionales en proteínas mediante cambios espectrales.[70]
En ciencias ambientales, detecta nitratos (220 nm, ε ≈ 10 000 M⁻¹ cm⁻¹) o contaminantes orgánicos como el benceno (254 nm) en el agua, a menudo con monitores en línea para un control de calidad en tiempo real. Los usos clínicos abarcan la medición de hemoglobina (540 nm) en sangre o ensayos de bilirrubina en recién nacidos. El método admite el seguimiento del crecimiento microbiano a través de OD_{600} para turbidez, correlacionándose con la densidad celular (p. ej., 1 OD ≈ 8 × 10^8 UFC/mL para E. coli).[71]
Los ejemplos incluyen la verificación de colorantes alimentarios (por ejemplo, Allura Red a 504 nm para su concentración en bebidas) y la caracterización de nanomateriales, donde las nanopartículas de oro muestran resonancia de plasmón superficial a ~520 nm, lo que indica el tamaño (10 a 100 nm). En el control de calidad, garantiza la pureza del fármaco comparando espectros con estándares. Las limitaciones implican interferencias de la matriz y falta de especificidad para analitos no cromóforos, lo que a menudo requiere separación de palabras en la cromatografía.[72]
Espectrofotometría infrarroja
La espectrofotometría infrarroja, también conocida como espectroscopia infrarroja (IR), analiza las vibraciones moleculares midiendo la absorción de la radiación IR en el rango de 14000 a 10 cm⁻¹, dividida en IR cercano (14000 a 4000 cm⁻¹), IR medio (4000 a 400 cm⁻¹, que abarca transiciones vibratorias fundamentales) e IR lejano (400 a 10). cm⁻¹).[73] La región IR media se utiliza más comúnmente para identificar grupos funcionales debido a su correspondencia con las energías de los enlaces moleculares.[73]
Los principios subyacentes se basan en la excitación de modos de vibración molecular, como el estiramiento (alargamiento/compresión simétrico o asimétrico de enlaces) y la flexión (deformaciones de tijera, balanceo, movimiento o torsión), que ocurren a frecuencias específicas determinadas por las masas de los átomos y las fuerzas de los enlaces. Para que una vibración sea activa en IR, debe inducir un cambio en el momento dipolar de la molécula, según la regla de selección derivada de las integrales dipolares de transición de la mecánica cuántica; Los modos simétricos en moléculas diatómicas homonucleares, como el N₂, son, por tanto, inactivos.[74] La región de la huella digital (1500–600 cm⁻¹) presenta bandas complejas y superpuestas de vibraciones esqueléticas, lo que proporciona una firma espectral única para la identificación de compuestos similar a una "huella digital" molecular.[73]
La configuración instrumental en espectrofotometría IR generalmente emplea una fuente IR de banda ancha, como un globar (una varilla de carburo de silicio calentada que emite entre ~5000 y 400 cm⁻¹), combinada con un interferómetro en sistemas IR por transformada de Fourier (FT-IR) para generar un interferograma que se transforma mediante Fourier en un espectro. El interferómetro de Michelson divide el haz fuente, introduce una diferencia de trayectoria a través de un espejo en movimiento y lo recombina para generar interferencia, lo que permite mediciones de alta resolución sin rendijas.[75] Los materiales transparentes a los rayos IR son esenciales para la manipulación de muestras; Las ventanas o gránulos de bromuro de potasio (KBr) se utilizan para los sólidos, mientras que los cristales de reflectancia total atenuada (ATR) (por ejemplo, diamante o ZnSe) facilitan el análisis directo de sólidos o líquidos mediante la penetración de ondas evanescentes.[73]
La preparación de muestras varía según la técnica: el modo de transmisión a menudo implica dispersar sólidos en mezclas de Nujol (aceite mineral) entre placas de KBr o presionarlos en gránulos de KBr (~1% de muestra en peso) para obtener películas delgadas uniformes; los métodos de reflexión incluyen espectroscopia de reflectancia difusa para polvos; y celdas de gas con ventanas transparentes a los rayos IR (por ejemplo, NaCl) para vapores.[73] La absorbancia sigue la ley de Beer-Lambert, A = εcl, donde la longitud de trayectoria l se adapta a las células IR (normalmente 0,01 a 1 mm) para evitar la saturación.[73]
La interpretación espectral se centra en las posiciones y formas características de las bandas; por ejemplo, el estiramiento O-H en alcoholes aparece como una banda ancha a ~3400 cm⁻¹ debido al ensanchamiento inducido por los enlaces de hidrógeno y la multiplicidad de vibraciones, mientras que el estiramiento C=O en carbonilos muestra un pico agudo e intenso a ~1700 cm⁻¹.[73] Los enlaces de hidrógeno reducen las frecuencias vibratorias y amplían las bandas al crear un conjunto de fuerzas de enlace ligeramente variadas.
FT-IR ofrece ventajas clave sobre el IR dispersivo: la ventaja de Fellgett (multiplex), donde todas las longitudes de onda se detectan simultáneamente para mejorar la relación señal-ruido en √N (N = elementos de resolución), y la ventaja de Jacquinot (rendimiento), que permite una mayor recolección de luz sin rendijas para escaneos más rápidos (a menudo <1 s por espectro).
La espectrofotometría infrarroja (IR) se emplea ampliamente para la identificación cualitativa de estructuras moleculares, particularmente en compuestos orgánicos, mediante la detección de bandas de absorción características correspondientes a grupos funcionales como tramos C-H, O-H y C=O. Por ejemplo, en la ciencia de los polímeros, los espectros IR permiten determinar la composición y la distribución de la secuencia a través de relaciones de intensidad máxima, como se demuestra en el análisis del tereftalato de polietileno, donde las bandas de carbonilo y éter revelan relaciones de copolímero. Esta técnica es esencial para la elucidación estructural en materiales sintéticos, lo que permite a los investigadores confirmar la presencia de restos específicos sin destrucción de la muestra.
Las aplicaciones cuantitativas de la espectrofotometría IR incluyen análisis a nivel de trazas y monitoreo de procesos en tiempo real. En el monitoreo ambiental, cuantifica la contaminación por petróleo en el agua midiendo la intensidad de las bandas de estiramiento de CH alifático alrededor de 2900 cm⁻¹, logrando límites de detección tan bajos como 1 ppm en muestras marinas. Para las reacciones químicas, la reflectancia total atenuada (ATR)-FTIR facilita el seguimiento in situ de los puntos finales, como en los procesos de esterificación donde la desaparición de los picos ácidos de O-H indica la finalización, lo que permite una ampliación eficiente en entornos industriales.
Los ejemplos prácticos abarcan múltiples campos, incluidos la ciencia forense, la farmacéutica y la ciencia de los alimentos. En el análisis forense, el IR se utiliza para comparar fragmentos de pintura de la escena del crimen comparando firmas de silicato y aglutinantes orgánicos, lo que ayuda a la identificación de vehículos con alta especificidad. Las aplicaciones farmacéuticas implican la detección de polimorfos en formulaciones de fármacos; por ejemplo, FTIR distingue entre formas anhidra e hidratada de cafeína mediante cambios en los modos de estiramiento del carbonilo o vibración del anillo, lo que garantiza la estabilidad y biodisponibilidad del producto. En el análisis de alimentos, perfila el contenido de ácidos grasos en los aceites, como la cuantificación de las grasas trans en la margarina a través de deformaciones trans C-H aisladas a 966 cm⁻¹, lo que respalda el cumplimiento del etiquetado nutricional.
Las variantes no destructivas mejoran la versatilidad del IR para diversos tipos de muestras. ATR-FTIR permite el análisis de superficies de sólidos como recubrimientos o tejidos sin preparación, comúnmente aplicado en el patrimonio cultural para identificar pigmentos en obras de arte mediante bandas de Si-O. La espectroscopia IR fotoacústica extiende esto a muestras opacas o en polvo, como minerales geológicos, generando señales acústicas a partir de IR absorbidas, útiles para perfiles en profundidad sin contacto físico. Las técnicas con guiones, como la cromatografía de gases-IR (GC-IR), combinan la separación con la identificación, lo que permite la caracterización de mezclas complejas como los aceites esenciales, donde los componentes eluidos se identifican por sus huellas dactilares IR únicas después del aislamiento cromatográfico.
Otras técnicas espectrofotométricas
Espectrofotometría de absorción atómica
La espectrofotometría de absorción atómica (AAS) es una técnica analítica empleada para la determinación cuantitativa de elementos traza metálicos midiendo la absorción de radiación resonante por átomos en estado fundamental en la fase gaseosa. Desarrollado por Alan Walsh en la década de 1950, el método se basa en átomos libres que absorben luz en longitudes de onda específicas correspondientes a transiciones electrónicas desde el estado fundamental a niveles de energía más altos. Una lámpara de cátodo hueco, llena con el elemento de interés y un gas inerte como neón o argón, sirve como fuente de luz, emitiendo líneas de emisión nítidas que coinciden con el espectro de absorción de los átomos del analito.
El proceso comienza con la preparación de la muestra para producir una población de átomos libres y no excitados mediante vaporización y atomización. En el AAS con llama, la solución de la muestra se aspira a una llama, como aire-acetileno, que opera a temperaturas de 2000 a 3000 K para desolvatar, volatilizar y disociar la muestra en átomos; este método ofrece un análisis rápido pero está limitado a una sensibilidad de partes por millón (ppm) para la mayoría de los elementos. El horno de grafito AAS mejora la sensibilidad a los niveles de partes por billón (ppb) calentando eléctricamente un tubo de grafito en etapas (secado, incineración, atomización y limpieza), lo que permite volúmenes de muestra más pequeños (normalmente 5 a 20 µl) y tiempos de residencia más largos para los átomos en el camino de la luz, aumentando así la intensidad de la señal. La absorbancia medida se adhiere a la ley de Beer-Lambert, donde la absorción es directamente proporcional a la concentración de átomos en estado fundamental, con absortividades molares atómicas que a menudo exceden los 10 ^ 4 L mol⁻¹ cm⁻¹ debido a los anchos de línea estrechos.
La configuración instrumental incluye la lámpara de cátodo hueco, un atomizador (llama u horno), un monocromador para seleccionar la línea resonante específica y un detector como un tubo fotomultiplicador. Cada elemento requiere una lámpara dedicada para garantizar la especificidad de la línea, ya que las lámparas de elementos múltiples pueden comprometer la resolución. La corrección de fondo es fundamental para restar interferencias no atómicas como la absorción o dispersión molecular; Los métodos comunes incluyen la lámpara continua de deuterio, que proporciona luz de amplio espectro para la medición de la línea base, y la corrección del efecto Zeeman, donde un campo magnético divide las líneas de emisión de la lámpara para aislar la absorción del analito del fondo. Las líneas de absorción atómica son inherentemente estrechas, con anchos de alrededor de 0,002 nm a temperaturas típicas de llama, lo que permite una alta selectividad pero exige una alineación precisa de la longitud de onda (a menudo ±0,1 nm). Las interferencias incluyen la ionización, suprimida mediante la adición de supresores de ionización como el cesio, e interferencias químicas, mitigadas mediante agentes liberadores como el lantano para elementos refractarios.
AAS encuentra una amplia aplicación en el monitoreo ambiental, como la detección de plomo en agua potable en la línea de 283,3 nm, donde se pueden cuantificar concentraciones tan bajas como 10 µg/L después de la digestión ácida y el análisis de la llama. En química clínica, se utiliza para medir el calcio en el suero sanguíneo, normalmente a 422,7 nm, lo que ayuda en el diagnóstico de trastornos como la hipercalcemia con límites de detección de alrededor de 0,1 mg/L. Las variantes especializadas abordan elementos volátiles o mal atomizados: el AAS de vapor frío para mercurio implica reducir Hg²⁺ a vapor de Hg⁰ utilizando cloruro estannoso, seguido de una purga en una celda de absorción para medir a 253,7 nm sin atomización térmica, logrando una sensibilidad inferior a ppb. Generación de hidruros Los AAS, aplicados al arsénico y al selenio, generan hidruros volátiles (p. ej., AsH₃, H₂Se) mediante la reducción de borohidruro de sodio en medios ácidos, atrapándolos en una celda de cuarzo calentada para su atomización y detección a 193,7 nm (As) o 196,0 nm (Se), lo que mejora la sensibilidad a los niveles de trazas en sustancias biológicas y en agua. muestras.[83][84][85][86]
Espectrofotometría de fluorescencia
La espectrofotometría de fluorescencia es una técnica que mide la emisión de fluorescencia de una muestra después de la excitación por luz, generalmente en el rango ultravioleta-visible, lo que proporciona una alta sensibilidad para detectar bajas concentraciones de analitos. El proceso comienza con la absorción de fotones por un fluoróforo, promoviendo electrones desde el estado singlete fundamental (S₀) a un estado singlete excitado, más comúnmente S₁, como se ilustra en el diagrama de Jablonski. Desde el estado S₁, la molécula puede regresar a S₀ a través de fluorescencia, emitiendo un fotón o mediante vías de desintegración no radiativa, como la conversión interna o el cruce entre sistemas al estado triplete (T₁), lo que conduce a la fosforescencia, un proceso de emisión de mayor duración que ocurre en el orden de milisegundos a segundos, en contraste con la escala de tiempo de nanosegundos de la fluorescencia. La fluorescencia emitida se desplaza al rojo en relación con la longitud de onda de excitación debido al cambio de Stokes, que surge de la relajación vibratoria en el estado excitado y la reorganización del solvente, lo que generalmente resulta en longitudes de onda de emisión de 10 a 100 nm más largas que la absorción.
La configuración instrumental de un espectrofotómetro de fluorescencia incluye una fuente de luz, como una lámpara de arco de xenón, seguida de un monocromador de excitación para seleccionar la longitud de onda deseada para iluminar la muestra en una cubeta o celda de flujo.[88] La luz emitida se recoge en ángulo recto (90°) con respecto al haz de excitación para minimizar la detección de luz de excitación dispersa y dispersión de Rayleigh, luego se pasa a través de un monocromador de emisión para aislar el espectro de fluorescencia antes de llegar a un fotodetector como un tubo fotomultiplicador. Esta configuración mejora la relación señal-ruido, lo que permite límites de detección de hasta partes por mil millones (ppb) para especies fluorescentes.[90]
La eficiencia de la fluorescencia se cuantifica mediante el rendimiento cuántico (Φ), definido como la relación entre fotones emitidos y fotones absorbidos, que varía de 0 a 1 y depende de vías de relajación competitivas.[91] La vida útil de la fluorescencia (τ), el tiempo promedio que una molécula pasa en estado excitado (normalmente 1 a 10 ns), está influenciada por mecanismos de extinción, incluida la extinción por colisión en la que un extintor como el oxígeno choca con el fluoróforo para promover la desintegración no radiativa y la extinción estática mediante la formación de complejos. Además, el efecto del filtro interno reduce la intensidad observada por la absorbancia de la luz de excitación (filtro interno primario) o la reabsorción de la luz emitida (filtro interno secundario), particularmente en soluciones concentradas o altamente absorbentes, lo que requiere correcciones basadas en mediciones de absorbancia.
Aplicaciones en todos los campos
Química y Bioquímica
En química, la espectrofotometría UV-visible juega un papel crucial en el seguimiento del progreso de la reacción, particularmente para los procesos que involucran conjugación, donde los cambios en la absorbancia reflejan la formación de sistemas π extendidos. Por ejemplo, la extensión de la conjugación en moléculas orgánicas conduce a cambios batocrómicos e hipercrómicos en los espectros de absorción, lo que permite el seguimiento en tiempo real de la cinética de reacción.[67] De manera similar, las mediciones de absorbancia permiten la determinación de constantes de equilibrio mediante la observación de cambios espectrales tras una perturbación, como en la unión de ligandos o en los equilibrios ácido-base, donde la relación de concentraciones de especies se deriva de las aplicaciones de la ley de Beer.
En bioquímica, la espectrofotometría es indispensable para la cuantificación de proteínas, ya que la absorbancia UV directa a 280 nm sirve como un método rápido y sin reactivos que aprovecha la absorción de aminoácidos aromáticos como el triptófano y la tirosina.[101] Los ensayos colorimétricos complementarios, como el método de Lowry, que se basa en la reacción de biuret potenciada por el reactivo de Folin-Ciocalteu para la reducción del Cu⁺, y el ensayo del ácido bicinconínico (BCA), que detecta el Cu⁺ mediante un cromóforo púrpura a 562 nm, proporcionan una mayor sensibilidad para muestras de baja concentración.[102] La espectrofotometría UV-visible también facilita los estudios de cinética enzimática, donde las velocidades de reacción iniciales se miden mediante el seguimiento de los cambios de absorbancia del sustrato al producto, lo que permite ajustarlos a los modelos de Michaelis-Menten para derivar parámetros como K_m y V_max.[103] Para los ácidos nucleicos, la evaluación de la pureza mediante la relación A260/A280, idealmente alrededor de 1,8 para el ADN y 2,0 para el ARN, distingue la contaminación por proteínas u otras impurezas basándose en picos de absorbancia diferenciales.[104]
Las valoraciones espectrofotométricas ejemplifican aún más las aplicaciones en ambos campos, donde la adición incremental de ligando induce cambios de absorbancia para cuantificar las afinidades de unión, como se observa en las interacciones hemo-proteína con constantes de disociación (K_d) calculadas a partir de curvas de valoración.[105] En metabolómica, la espectrofotometría infrarroja perfila las composiciones de lípidos identificando bandas de estiramiento C-H características alrededor de 2900 cm⁻¹ y absorciones de carbonilo cerca de 1740 cm⁻¹, lo que permite el análisis no destructivo de fracciones de lípidos en extractos biológicos.[106]
La integración de múltiples técnicas mejora los conocimientos bioquímicos; por ejemplo, la absorbancia UV-visible cuantifica las concentraciones en estado estacionario, mientras que la fluorescencia detecta cambios conformacionales dinámicos en proteínas o ácidos nucleicos.[107] Las adaptaciones de alto rendimiento, como los lectores de placas de múltiples pocillos junto con la detección de absorbancia, respaldan la detección basada en microarrays de interacciones de proteínas o actividades enzimáticas, procesando cientos de muestras simultáneamente para estudios moleculares a escala.[108]
Ciencia ambiental y de materiales
En el monitoreo ambiental, la espectrofotometría desempeña un papel crucial en la detección de contaminantes como los nitratos en cuerpos de agua, donde la espectroscopia ultravioleta-visible (UV-Vis) aprovecha las fuertes bandas de absorción de iones de nitrato alrededor de 200-220 nm para una cuantificación rápida y no destructiva en muestras de agua de mar y agua dulce.[109][110] La espectrofotometría de absorción atómica (AAS) se utiliza ampliamente para el análisis de metales pesados en el suelo y el agua, y ofrece una alta sensibilidad para elementos como plomo, cadmio y mercurio en niveles traza, lo que permite evaluar la contaminación procedente de escorrentías industriales o fuentes agrícolas.[111][112] Las aplicaciones de teledetección utilizan espectrorradiómetros para calcular índices de vegetación como el Índice de Vegetación de Diferencia Normalizada (NDVI), que diferencia la vegetación sana de las áreas estresadas o degradadas al contrastar la reflectancia de la luz roja y del infrarrojo cercano, lo que ayuda en evaluaciones de salud ambiental a gran escala.
Los métodos colorimétricos basados en espectrofotometría proporcionan mediciones esenciales de la calidad del agua, incluida la demanda bioquímica de oxígeno (DBO) y la demanda química de oxígeno (DQO). La DQO se cuantifica mediante oxidación de dicromato seguida de una lectura de absorbancia a 600 nm, mientras que la DBO a menudo se estima mediante espectrofotometría UV-Vis mediante modelos de regresión que correlacionan la absorbancia espectral con la demanda de oxígeno; Los valores de DQO normalmente superan a los de DBO debido a un alcance de oxidación más amplio.[115][116] Las herramientas implementables sobre el terreno, como los espectrofotómetros UV-Vis portátiles, facilitan la detección in situ de derrames de petróleo mediante el análisis de espectros de fluorescencia o absorción en el rango UV-visible, lo que permite la identificación en tiempo real de hidrocarburos de petróleo en entornos marinos.[117][118] Las imágenes hiperespectrales, una técnica espectrofotométrica avanzada, respaldan el mapeo de minerales al capturar la reflectancia a través de cientos de bandas espectrales estrechas, lo que permite discriminar minerales alterados como arcillas y sulfatos en estudios geológicos para la exploración de recursos y la evaluación del impacto ambiental.
Para los esfuerzos de sostenibilidad, la espectroscopia de absorción transitoria UV-Vis monitorea los fotocatalizadores mediante el seguimiento de la dinámica de los portadores de carga y los intermediarios de reacción, lo que proporciona información sobre la eficiencia para aplicaciones como la degradación de contaminantes bajo irradiación solar.[121][122]
En ciencia de materiales, la espectrofotometría infrarroja (IR) evalúa la degradación del polímero a través del índice de carbonilo, calculado como la relación entre la absorbancia del carbonilo en aproximadamente 1710 cm⁻¹ y una banda de referencia como 1460 cm⁻¹, cuantificando los cambios oxidativos en el polietileno y el polipropileno expuestos a factores ambientales estresantes.[123][124] La espectrofotometría UV-Vis caracteriza las nanopartículas mediante el análisis de la resonancia de plasmón superficial localizada, donde los cambios máximos de longitud de onda en el rango de 500 a 600 nm se correlacionan con tamaños de partículas de oro o plata de 5 a 100 nm, lo que ayuda en el control de calidad de los nanomateriales en compuestos. La espectrofotometría visible mide el espesor de las películas delgadas a través de patrones de interferencia, con espectros de reflectancia oscilatoria analizados para determinar capas tan delgadas como 10 nm en sustratos como silicio o vidrio, esenciales para recubrimientos en células solares y ópticas. Los espectrofotómetros portátiles de mano se emplean en la ciencia de materiales automotrices para lograr una igualación precisa del color de la pintura en aplicaciones de reparación inteligentes, lo que permite reparaciones perfectas de daños menores sin tener que volver a pintar paneles enteros.[129]
Análisis cuantitativo y limitaciones
Fuentes de error y calibración
La calibración en espectrofotometría garantiza la precisión y confiabilidad de las mediciones de absorbancia al establecer una relación entre la respuesta del instrumento y la concentración del analito, a menudo basándose en la ley de Beer-Lambert como base para las comprobaciones de linealidad. Los estándares externos comúnmente se preparan mediante diluciones en serie de una solución madre para generar una curva de calibración que abarca el rango de concentración esperado, lo que permite la verificación de la respuesta lineal del instrumento en múltiples puntos. Este enfoque minimiza los errores de no linealidad en absorbancias altas y es esencial para el análisis cuantitativo, donde las diluciones generalmente se realizan de manera gradual (por ejemplo, proporciones 1:10) para cubrir de manera eficiente concentraciones bajas a altas.[130]
Se emplean estándares internos para tener en cuenta los efectos de la matriz, donde las variaciones en la composición de la muestra pueden alterar la respuesta del analito; estos implican agregar un compuesto conocido con un comportamiento químico similar pero propiedades espectrales distintas tanto a los estándares como a las muestras, lo que permite la normalización de las lecturas de absorbancia para la comparación de matrices. Esta técnica es particularmente útil en muestras complejas, como fluidos biológicos, para compensar interferencias no específicas sin alterar significativamente la matriz de la muestra. Al comparar la relación analito-estándar interno en todo el conjunto de calibración, se minimizan las variaciones inducidas por la matriz, lo que mejora la precisión en las determinaciones cuantitativas.[131]
Las fuentes de error comunes en espectrofotometría incluyen la luz parásita, que surge de trayectorias de luz no deseadas dentro del instrumento y reduce el rango dinámico efectivo al agregar una compensación constante a las lecturas de transmitancia, lo que lleva a una subestimación de la absorbancia en altas concentraciones. La fotodescomposición ocurre cuando la exposición prolongada al haz de medición degrada los analitos sensibles a la luz, lo que provoca disminuciones de la absorbancia que dependen del tiempo y requiere mediciones rápidas o condiciones protectoras para los compuestos lábiles. Los efectos de la temperatura influyen en la absortividad molar (ε) de los analitos, ya que los cambios térmicos pueden cambiar las bandas espectrales o alterar las interacciones moleculares, con variaciones típicas de 0,1 a 1 % por °C que requieren temperaturas controladas de la muestra y del instrumento para obtener resultados reproducibles.[132][133][134]
Los errores instrumentales comprometen aún más la precisión, con imprecisiones en las longitudes de onda resultantes de la deriva del monocromador o errores de calibración, verificables utilizando soluciones de óxido de holmio que exhiben picos agudos en longitudes de onda conocidas (por ejemplo, 241,15 nm, 287,15 nm) para garantizar que las desviaciones permanezcan por debajo de ±1 nm. Los errores de linealidad fotométrica surgen de la saturación del detector o de imperfecciones ópticas, evaluados midiendo estándares certificados en valores de absorbancia de 0 a 2, lo que confirma el cumplimiento del comportamiento lineal esperado según las especificaciones del fabricante. Estos controles son rutinarios para la calificación de instrumentos y a menudo siguen estándares farmacopeicos para mantener la trazabilidad.[135]
El tratamiento estadístico de los datos espectrofotométricos implica calcular el límite de detección (LOD) como 3σ dividido por la pendiente de la curva de calibración, donde σ es la desviación estándar de la respuesta en blanco, lo que proporciona una medida de la concentración de analito detectable más baja con un 99 % de confianza. La validación sigue las pautas ICH Q2(R1), que recomiendan evaluar la especificidad, linealidad, exactitud, precisión y solidez mediante análisis replicados y pruebas estadísticas para garantizar la confiabilidad del método para aplicaciones regulatorias. Estos parámetros establecen el rendimiento analítico, con un LOD típicamente en el rango de 10^{-5} a 10^{-6} M para muchos ensayos UV-Vis dependiendo de la sensibilidad del instrumento.[136]
Las técnicas de corrección para especies que interfieren incluyen el análisis de múltiples longitudes de onda, donde se mide la absorbancia en múltiples puntos a lo largo del espectro para desconvolucionar las señales superpuestas del analito objetivo y las interferencias utilizando álgebra lineal o métodos derivados. Este enfoque mejora la selectividad al aprovechar las diferencias en los perfiles espectrales, lo que reduce los errores de los compuestos coabsorbentes sin separación física y es particularmente eficaz en ensayos de rutina con interferencias conocidas.[137]
Interpretación de datos
La interpretación de datos en espectrofotometría implica transformar datos espectrales sin procesar en conocimientos cuantitativos y cualitativos significativos, a menudo basándose en mediciones calibradas para garantizar la precisión. El procesamiento espectral es un paso fundamental, donde técnicas como la sustracción de la línea base eliminan las compensaciones sistemáticas causadas por la deriva del instrumento o los efectos de la matriz de la muestra, lo que permite una identificación más clara de las señales del analito.[138] Los métodos de suavizado, incluido el filtro Savitzky-Golay, aplican un ajuste de mínimos cuadrados polinómicos locales para reducir el ruido y al mismo tiempo preservar las formas y anchos de los picos, normalmente utilizando un polinomio cuadrático en una ventana de 5 a 21 puntos, según la resolución de los datos. La deconvolución refina aún más los espectros separando matemáticamente los picos superpuestos o ampliando el instrumento, empleando a menudo algoritmos iterativos como el método de Richardson-Lucy para recuperar perfiles de banda verdaderos.
El análisis de picos cuantifica las características espectrales ajustando modelos a bandas de absorción o emisión, donde las funciones gaussianas modelan picos simétricos que surgen de un ensanchamiento homogéneo y las funciones de Lorentz describen colas asimétricas de efectos de presión o vida útil.[141] La integración de áreas bajo picos ajustados proporciona estimaciones de concentración a través de la ley de Beer, con software que automatiza la selección de la línea de base y el ajuste de curvas para minimizar los residuos, logrando precisiones a menudo inferiores al 1% de desviación estándar relativa para bandas bien resueltas.
Para mezclas complejas, las técnicas multivariadas extraen patrones latentes a partir de datos espectrales de alta dimensión. El análisis de componentes principales (PCA) descompone los espectros en componentes ortogonales que capturan la varianza, lo que facilita la clasificación de muestras al agrupar perfiles similares en gráficos de puntuación, como se demuestra en estudios UV-Vis de mezclas de lantánidos donde los dos primeros componentes explicaron más del 95% de la variabilidad.[143] La regresión de mínimos cuadrados parciales (PLS) amplía esto para el modelado predictivo, correlacionando componentes principales espectrales con concentraciones de referencia para pronosticar niveles de analitos, produciendo errores cuadráticos medios tan bajos como 0,5% en aplicaciones de control de calidad farmacéutica.[144]
El software especializado agiliza estos procesos, con herramientas comerciales como Origin que proporcionan ajuste de picos interactivo, módulos PCA/PLS y secuencias de comandos para análisis por lotes de datos UV-Vis.[145] Grams/AI de Thermo Fisher ofrece métodos cuantitativos y de búsqueda espectral integral, integrando rutinas quimiométricas para flujos de trabajo de laboratorio de rutina.[146] Las alternativas de código abierto, como la biblioteca SciPy de Python, permiten implementaciones personalizadas a través de funciones como savgol_filter para suavizar y curve_fit para modelado de picos, promoviendo la reproducibilidad en entornos de investigación.[147]
Encuentra más de "Espectrofotómetros", en los siguientes países:
Históricamente, la espectrofotometría evolucionó a partir de observaciones de absorción de luz realizadas en los siglos XVIII y XIX por Pierre Bouguer (1729), Johann Heinrich Lambert (1760) y August Beer (1852), y la instrumentación moderna surgió en la década de 1930 a través de desarrollos como el espectrofotómetro Coleman, que facilitó su adopción generalizada en los laboratorios. Desde entonces, los avances en la tecnología de detectores y la automatización han mejorado su precisión, ampliando su utilidad a campos como la ciencia de materiales y la industria farmacéutica.[10]
Principios básicos
Absorción y transmisión de luz.
La espectrofotometría se define como la medición cuantitativa de la reflexión, transmisión o absorción de la luz por un material en función de la longitud de onda de la luz.[11] Esta técnica se basa en la interacción de la radiación electromagnética con la materia en regiones específicas del espectro, principalmente las regiones ultravioleta (UV, aproximadamente 200 a 400 nm), visible (400 a 780 nm) e infrarroja (IR, 780 nm a 1 mm), donde se producen transiciones moleculares y atómicas.
Cuando la luz encuentra una muestra, puede sufrir varias interacciones fundamentales: absorción, transmisión, reflexión o dispersión. La absorción ocurre cuando los fotones son capturados por electrones o moléculas en la muestra, excitándolos de niveles de energía más bajos a más altos si la energía del fotón coincide con la diferencia de energía entre esos niveles. La transmisión se refiere a la luz que pasa a través de la muestra sin interacción significativa, manteniendo su intensidad y dirección. La reflexión implica que la luz rebota en la superficie de la muestra, a menudo en materiales opacos o altamente refractivos, mientras que la dispersión redirige la luz en múltiples direcciones debido a interacciones con partículas o faltas de homogeneidad dentro de la muestra.
Los ejemplos cualitativos ilustran vívidamente estos procesos; por ejemplo, una solución que parece azul a simple vista transmite longitudes de onda azules mientras absorbe luz roja y naranja complementaria, ya que los fotones absorbidos promueven transiciones electrónicas en las moléculas de tinte. De manera similar, al dispersarse, los líquidos lechosos, como la leche diluida, redirigen la luz en varias direcciones debido a los glóbulos de grasa, lo que reduce la transmisión general. Estas interacciones sustentan el color y la opacidad observados en los materiales.[12]
Las muestras en espectrofotometría se preparan en formas tales como soluciones (generalmente disueltas en solventes dentro de celdas transparentes), sólidos (molidos en polvo, incrustados en matrices o analizados como películas delgadas) y gases (contenidos en celdas especializadas con volúmenes definidos). La longitud del camino (la distancia que recorre la luz a través de la muestra) influye cualitativamente en el grado de interacción; un camino más largo aumenta la oportunidad de absorción o dispersión, intensificando el efecto en comparación con un camino más corto. Estos principios proporcionan la base cualitativa para modelos cuantitativos como la ley de Beer-Lambert.[11][15]
Ley Beer-Lambert
La Ley de Beer-Lambert, también conocida como Ley de Beer, proporciona la relación cuantitativa fundamental en espectrofotometría entre la absorción de luz por un material y las propiedades de ese material. Afirma que la absorbancia AAA de una solución es directamente proporcional a la concentración ccc de la especie absorbente y la longitud del camino lll a través del cual pasa la luz, expresada como A=ϵ⋅c⋅lA = \epsilon \cdot c \cdot lA=ϵ⋅c⋅l, donde ϵ\epsilonϵ es la absortividad molar (o coeficiente de extinción molar) específica de la sustancia en un momento dado. longitud de onda.[16] Esta ley permite la determinación lineal de concentraciones desconocidas a partir de valores de absorbancia medidos, lo que forma la base para el análisis cuantitativo en espectroscopia.[17]
Históricamente, la ley tiene sus orígenes en la obra del siglo XVIII de Pierre Bouguer, quien en 1729 describió la atenuación de la luz a través de un medio homogéneo proporcional a la distancia recorrida, y Johann Heinrich Lambert, quien en 1760 formalizó esto en su tratado Photometria como la caída exponencial de la intensidad de la luz. August Beer amplió el principio en 1852 incorporando la dependencia de la concentración para absorber soluciones, lo que llevó a la formulación combinada Bouguer-Beer-Lambert. La derivación comienza con la forma diferencial de atenuación de la luz: el cambio en la intensidad dIdIdI a través de una longitud de trayectoria infinitesimal dldldl es proporcional a la intensidad III, la concentración ccc y dldldl, dada por dI=−κ⋅I⋅c⋅dldI = -\kappa \cdot I \cdot c \cdot dldI=−κ⋅I⋅c⋅dl, donde κ\kappaκ es una constante. Integrando esto desde la intensidad inicial I0I_0I0 en l=0l=0l=0 a la intensidad transmitida III en la longitud del camino lll se obtiene I=I0e−κclI = I_0 e^{-\kappa c l}I=I0e−κcl. Al definir la transmitancia T=I/I0=10−AT = I / I_0 = 10^{-A}T=I/I0=10−A (usando un logaritmo de base 10 para mayor comodidad en la medición), la absorbancia se convierte en A=−log10(T)=(κcl)/ln(10)A = -\log_{10}(T) = (\kappa c l) / \ln(10)A=−log10(T)=(κcl)/ln(10), con ϵ=κ/ln(10)\epsilon = \kappa / \ln(10)ϵ=κ/ln(10) en unidades de L mol−1^{-1}−1 cm−1^{-1}−1.[18][17]
La absorbancia AAA cuantifica la fracción de luz absorbida, vinculándola directamente a la transmitancia como T=I/I0=10−AT = I / I_0 = 10^{-A}T=I/I0=10−A, lo que linealiza la caída exponencial para un trazado práctico de AAA frente a ccc. La absortividad molar ϵ\epsilonϵ caracteriza la eficiencia de absorción intrínseca de la especie, que normalmente oscila entre 1 y 105^55 L mol−1^{-1}−1 cm−1^{-1}−1 dependiendo del cromóforo y la longitud de onda, mientras que la longitud de trayectoria lll se fija en configuraciones estándar (por ejemplo, cubetas de 1 cm). Esta proporcionalidad supone iluminación monocromática, soluciones diluidas en las que las partículas de soluto actúan de forma independiente sin interacciones intermoleculares y efectos insignificantes de dispersión, fluorescencia o refracción que podrían alterar la trayectoria de la luz.[17]
Las desviaciones de la ley ocurren en condiciones no ideales, como altas concentraciones donde la agregación molecular o las interacciones electrostáticas reducen la absortividad efectiva, lo que lleva a respuestas de absorbancia sublineales. Las fuentes de luz policromática introducen errores al promediar ϵ\epsilonϵ en longitudes de onda, mientras que los equilibrios químicos (por ejemplo, la disociación de ácidos débiles) pueden cambiar con la concentración, alterando la proporción de las especies absorbentes. Factores instrumentales como la luz parásita o las trayectorias no uniformes del haz los exacerban, pero la ley se aplica con precisión a los sistemas monocromáticos diluidos.[19]
Instrumentación y Diseño
Componentes principales
Los componentes centrales de un espectrofotómetro forman el hardware fundamental que permite medir la absorción o transmisión de luz por una muestra, adhiriéndose a principios como la Ley de Beer-Lambert para el análisis cuantitativo. Estos elementos incluyen la fuente de luz para generar radiación, el selector de longitud de onda para aislar longitudes de onda específicas, el portamuestras para posicionar el material en estudio, el detector para capturar la luz transmitida, la configuración de la trayectoria óptica para la gestión del haz y la electrónica básica para el procesamiento de señales. Juntos, garantizan una recopilación precisa de datos espectrales en varios rangos de longitud de onda.
La fuente de luz proporciona un haz estable de radiación electromagnética que abarca la región espectral deseada y normalmente emite un espectro continuo en lugar de espectros de líneas discretas para una amplia aplicabilidad en mediciones de absorción. Para el rango visible, las lámparas halógenas de tungsteno se utilizan comúnmente debido a su salida continua de aproximadamente 320 nm a 2500 nm y su alta intensidad a temperaturas de funcionamiento de alrededor de 3000 K.[20] En la región ultravioleta (UV), las lámparas de deuterio sirven como fuente principal y ofrecen un espectro continuo de aproximadamente 190 nm a 400 nm a través de una descarga eléctrica en gas de deuterio. Para la espectroscopia infrarroja (IR), una globar (una varilla de carburo de silicio calentada a 1000-1500 K) actúa como un emisor de cuerpo negro que proporciona radiación continua de hasta 50 μm, aunque requiere refrigeración por agua para gestionar el calor.
El monocromador o selector de longitud de onda dispersa la luz policromática de la fuente para aislar un ancho de banda estrecho, minimizando la luz parásita y logrando una alta resolución espectral esencial para mediciones precisas. Las rejillas de difracción, a menudo regladas u holográficas, se emplean ampliamente en instrumentos modernos por su eficiencia y capacidad para proporcionar resoluciones mejores que 1 nm al reflejar la luz en ángulos determinados por la ecuación de la rejilla, al mismo tiempo que reducen la luz parásita mediante ángulos de resplandor optimizados. Los prismas, generalmente hechos de cuarzo o sílice fundida, ofrecen un método de dispersión alternativo mediante refracción, adecuado para rangos UV-visibles con resoluciones de alrededor de 2 a 5 nm, aunque adolecen de límites de dispersión no lineal y absorción de material. Los filtros de interferencia brindan una selección de longitud de onda más simple para bandas fijas, utilizando recubrimientos de película delgada para transmitir bandas de paso estrechas (por ejemplo, 10 nm de ancho) mientras bloquean otras, ideales para aplicaciones que priorizan el rendimiento sobre la resolución fina.[23]
El soporte de muestra coloca el analito en la ruta óptica, asegurando una longitud de interacción de luz definida y reproducible para permitir lecturas de absorbancia consistentes. Las cubetas estándar, con una longitud de paso típica de 1 cm, están construidas con cuarzo para transparencia UV (hasta 190 nm) o vidrio óptico para longitudes de onda visibles (por encima de 350 nm), ambas con ventanas pulidas para evitar pérdidas por dispersión.[24] Las celdas de flujo, utilizadas en sistemas de flujo continuo, mantienen los mismos estándares de longitud de recorrido pero permiten la introducción dinámica de muestras a través de conexiones de tubos, acomodando volúmenes tan bajos como 10 a 50 μL para análisis de alto rendimiento.[25]
Los detectores convierten la intensidad de la luz transmitida en una señal eléctrica, con un rendimiento caracterizado por una alta relación señal-ruido (SNR) y sensibilidad a bajos niveles de luz para detectar absorciones débiles. Los fotodiodos, como los basados en silicio, ofrecen confiabilidad de estado sólido y tiempos de respuesta rápidos (microsegundos) con eficiencias cuánticas de hasta el 80% en el rango visible, adecuados para mediciones de rutina donde la SNR excede 1000:1 bajo iluminación típica.[26] Los tubos fotomultiplicadores (PMT) brindan una sensibilidad excepcional a través de la multiplicación de electrones, logrando ganancias de 10 ^ 6 a 10 ^ 8 y capacidades de detección de fotón único con mejoras de SNR en factores de 10 a 100 con respecto a los fotodiodos en aplicaciones UV-visibles con poca luz. Los conjuntos de dispositivos de carga acoplada (CCD) permiten la detección multicanal para la lectura simultánea de longitudes de onda, ofreciendo un alto rango dinámico (hasta 10^4) y bajo ruido (lectura <10 electrones) para espectrofotómetros basados en conjuntos.[26]
La trayectoria óptica general dirige la luz desde la fuente al detector, con configuraciones diseñadas para compensar las variaciones instrumentales. En configuraciones de haz único, la luz pasa secuencialmente a través de la muestra y la referencia, lo que requiere alternancia para restar efectos de fondo, lo que simplifica el diseño pero exige fuentes estables para mayor precisión.[28] Las configuraciones de doble haz dividen el haz mediante espejos o cortadores, dirigiendo un camino a través de la muestra y el otro a través de una referencia simultáneamente, lo que permite una relación en tiempo real para minimizar la deriva y mejorar la precisión en las mediciones de absorbancia.
La electrónica básica procesa la salida del detector para la grabación digital, incluidos amplificadores para amplificar señales débiles y convertidores de analógico a digital (ADC) para la adquisición de datos. Los amplificadores, a menudo de tipo operativo con ganancias de 10^3–10^5, acondicionan la fotocorriente para que coincida con los rangos de entrada del ADC (por ejemplo, 0–5 V), filtrando el ruido para mantener la integridad SNR.[29] Los ADC muestrean la señal amplificada a velocidades de 10 a 100 kHz con una resolución de 12 a 16 bits, convirtiendo intensidades analógicas en valores digitales para la reconstrucción espectral y la salida a computadoras o pantallas.
Tipos de espectrofotómetros
Los espectrofotómetros se clasifican según su configuración óptica, mecanismos de detección, forma física y modos operativos, cada uno de los cuales se adapta a necesidades analíticas específicas en términos de precisión, velocidad y portabilidad./13:_Introducción_a_la_espectrometría_de_absorción_ultravioleta_visible/13.4:_Instrumentación)
Los espectrofotómetros de haz único dirigen un único haz de luz a través de la muestra hasta el detector, lo que requiere mediciones secuenciales de la referencia y la muestra para calcular la absorbancia. Este diseño ofrece un alto rendimiento energético y sensibilidad debido al haz indiviso, lo que lo hace rentable y adecuado para análisis de rutina donde se prioriza la simplicidad. Sin embargo, es susceptible a fluctuaciones en la intensidad de la fuente de luz o en la respuesta del detector, lo que requiere una calibración frecuente entre lecturas./13:_Introduction_to_Ultraviolet_Visible_Absortion_Spectrometry/13.4:_Instrumentation)[31]
Por el contrario, los espectrofotómetros de doble haz dividen la luz en dos caminos (uno a través de la muestra y otro a través de una referencia), lo que permite la medición simultánea y la sustracción en tiempo real de señales de fondo para mejorar la estabilidad frente a variaciones de la fuente. Esta configuración sobresale en análisis cuantitativos que requieren alta precisión durante períodos prolongados, aunque genera costos más altos y posibles problemas de alineación debido a la óptica de división del haz./13:_Introduction_to_Ultraviolet_Visible_Absortion_Spectrometry/13.4:_Instrumentation)[32]
Los espectrofotómetros de barrido emplean un monocromador, como una rejilla, para seleccionar secuencialmente longitudes de onda para la detección, proporcionando una alta resolución espectral para el análisis detallado de bandas de absorción estrechas. Este enfoque es ideal para aplicaciones que exigen un control preciso de la longitud de onda, pero da como resultado tiempos de escaneo más lentos debido al movimiento mecánico.[33]
Los espectrofotómetros basados en matrices, incluidos detectores de diodos o multicanal, capturan todo el espectro simultáneamente dispersando la luz a través de una serie de detectores, lo que permite una adquisición más rápida y sin piezas móviles para mejorar la robustez. Estos sistemas facilitan mediciones de alto rendimiento y son más compactos, aunque pueden ofrecer una resolución ligeramente menor en comparación con los tipos de escaneo debido a limitaciones de píxeles.[33]
Los espectrofotómetros portátiles y de mano incorporan componentes miniaturizados como LED alimentados por baterías y detectores compactos para implementación en el campo, lo que permite el análisis in situ sin transporte de muestras. Por ejemplo, en la industria automotriz, estos dispositivos se utilizan para lograr una coincidencia de colores precisa en la reparación inteligente de dispositivos móviles, donde los técnicos realizan reparaciones in situ para daños estéticos menores del vehículo, como rayones o abolladuras, utilizando herramientas como PPG RapidMatch XI para garantizar una formulación precisa de la pintura sin tener que devolver el vehículo al taller. Si bien brindan comodidad y resultados rápidos en entornos ambientales o industriales, las ventajas y desventajas incluyen una sensibilidad reducida, rangos de longitud de onda más estrechos y una resolución más baja en relación con los modelos estacionarios.[34][35][36][37]
Desarrollo histórico
Innovaciones tempranas
Los fundamentos de la espectrofotometría se remontan al siglo XVIII, cuando el matemático y astrónomo francés Pierre Bouguer publicó en 1729 su trabajo sobre la atenuación de la luz en la atmósfera terrestre, estableciendo que la intensidad de la luz disminuye proporcionalmente con la distancia recorrida a través de un medio.[43] En 1760, el físico alemán Johann Heinrich Lambert amplió este principio en su tratado Photometria, formulando una ley general que establece que la transmitancia de la luz a través de cualquier medio homogéneo es una función exponencial de la longitud del camino, independiente de la intensidad inicial de la luz. Esta ley de Lambert proporcionó la base teórica para las mediciones cuantitativas de la absorción de luz. El químico alemán August Beer avanzó aún más el concepto en 1852 al demostrar que la absorción en soluciones líquidas también es proporcional a la concentración de la sustancia absorbente, lo que llevó a la ley combinada de Beer-Lambert como piedra angular de las primeras teorías espectrofotométricas.
Precediendo a los espectrofotómetros modernos, la colorimetría visual surgió a mediados del siglo XIX como un precursor práctico para medir soluciones coloreadas. En la década de 1850, el fabricante de instrumentos francés Louis Jules Duboscq desarrolló el colorímetro Duboscq, un dispositivo que permitía una evaluación visual comparativa de la intensidad del color ajustando la altura de las columnas de líquido en tubos de vidrio para que coincidieran con una solución estándar, ampliamente utilizada para análisis médicos como la determinación de hemoglobina.[45] Este instrumento marcó un primer paso hacia el análisis de color cuantitativo estandarizado, uniendo la observación cualitativa y la precisión instrumental.
A principios del siglo XX, la transición a la detección fotoeléctrica revolucionó la espectrofotometría al permitir mediciones más precisas y objetivas. Alrededor de la década de 1920, el espectroscopista Arthur C. Hardy del MIT fue pionero en espectrofotómetros fotoeléctricos que incorporaban fotocélulas de capa de barrera, que convertían la intensidad de la luz directamente en señales eléctricas, mejorando la sensibilidad con respecto a los métodos visuales y facilitando el análisis de líneas espectrales. Estas innovaciones sentaron las bases para el registro automatizado de espectros. En 1938, Coleman Instruments presentó el espectrofotómetro Modelo 11, uno de los primeros instrumentos comerciales UV-visibles que contribuyó al campo emergente.
La comercialización posterior a la Segunda Guerra Mundial aceleró el desarrollo de instrumentos, y el químico Arnold O. Beckman introdujo el espectrofotómetro Beckman DU en 1941, el primer modelo UV-visible comercialmente exitoso que utiliza un monocromador de prisma de cuarzo y un detector de fotocélulas para un análisis cuantitativo preciso en longitudes de onda ultravioleta y visible. El diseño de Beckman, nacido de las necesidades de análisis de vitaminas en tiempos de guerra, se convirtió en una herramienta estándar en los laboratorios de todo el mundo. Al mismo tiempo, el físico Gerhard Herzberg avanzó en la espectroscopia molecular de alta resolución en las décadas de 1930 y 1940 a través de su trabajo sobre estructuras atómicas y moleculares, contribuyendo con técnicas para identificar radicales libres y permitiendo mediciones de absorción más finas en medios gaseosos.
Un hito clave en la década de 1940 fue la adopción generalizada de los tubos fotomultiplicadores (PMT), inventados en la década de 1930 pero prácticamente integrados en los espectrofotómetros durante esta década, que amplificaban señales de luz débil en factores de millones, permitiendo la detección sensible de la absorción ultravioleta y transformando la espectrofotometría cuantitativa de aplicaciones cualitativas a aplicaciones de alta precisión.
Avances modernos
La integración de las tecnologías digitales en la espectrofotometría comenzó en la década de 1980 y se aceleró durante la década de 2000, pasando de sistemas analógicos a sistemas controlados por computadora que permiten la adquisición automatizada de datos, el procesamiento en tiempo real y el análisis espectral avanzado. Estos sistemas incorporan software para tareas como la corrección de la línea base, que elimina la deriva instrumental y el ruido para mejorar la precisión, y algoritmos de ajuste de picos que desconvolucionan las bandas espectrales superpuestas para una cuantificación precisa.[52][53] Este cambio ha mejorado la reproducibilidad y la accesibilidad del usuario, lo que permite a los investigadores realizar análisis complejos sin intervención manual.[54]
Los esfuerzos de miniaturización en la década de 2010 han llevado a espectrofotómetros portátiles integrados con teléfonos inteligentes, aprovechando la cámara del dispositivo y la potencia de procesamiento para mediciones in situ en entornos con recursos limitados. Estos dispositivos, que a menudo utilizan matrices de LED como fuentes de luz, permiten realizar pruebas en el lugar de atención mediante la captura de espectros de absorbancia a través de aplicaciones que procesan imágenes en datos cuantitativos, logrando límites de detección comparables a los modelos de mesa para analitos como la glucosa o los metales pesados.[55][56] Para complementar esto, los dispositivos de laboratorio en chip incorporan canales de microfluidos con detección espectrofotométrica integrada para ensayos rápidos y de bajo volumen, lo que facilita las aplicaciones en diagnóstico clínico y monitoreo ambiental.[57]
Las técnicas con guiones tienen una especificidad avanzada al combinar la espectrofotometría con métodos de separación, como la cromatografía líquida de alto rendimiento con detección ultravioleta (HPLC-UV), que separa mezclas complejas antes de la medición de la absorbancia UV para identificar y cuantificar compuestos en productos farmacéuticos y naturales.[58] De manera similar, la integración con la espectrometría de masas (LC-MS) combina separación cromatográfica, detección UV y análisis de masas para la elucidación estructural, lo que mejora la sensibilidad a las impurezas a nivel de trazas en el desarrollo de fármacos.[59] Estos enfoques proporcionan datos ortogonales, lo que reduce los falsos positivos en muestras de múltiples componentes.
Los métodos computacionales, incluida la quimiometría, han revolucionado la interpretación espectral a través de técnicas multivariadas como el análisis de componentes principales (PCA) para la reducción de dimensionalidad y la regresión de mínimos cuadrados parciales (PLS) para el modelado predictivo de conjuntos de datos espectrales.[60] En los últimos años, se ha aplicado la inteligencia artificial (IA) para la deconvolución espectral, utilizando algoritmos de aprendizaje automático para resolver picos superpuestos en datos ruidosos, mejorando la precisión en campos como la seguridad alimentaria y la metabolómica.
Espectrofotometría UV-Visible
Principios y configuración
La espectrofotometría UV-Visible, también conocida como espectroscopia UV-Vis, es una técnica que mide la absorción de luz ultravioleta (200–400 nm) y visible (400–800 nm) por muestras, correspondiente a transiciones electrónicas en moléculas como π → π* en sistemas conjugados o n → π* en grupos que contienen pares libres como carbonilos. Estas transiciones promueven electrones desde el estado fundamental al excitado, con longitudes de onda de absorción determinadas por la brecha de energía influenciada por los cromóforos y auxocromos.
La base cuantitativa es la ley de Beer-Lambert:
A=ϵclA = \epsilon c lA=ϵcl
donde AAA es la absorbancia (A=−log10(T)A = -\log_{10}(T)A=−log10(T), TTT = transmitancia), ϵ\epsilonϵ es la absortividad molar (L mol⁻¹ cm⁻¹), ccc es la concentración (mol L⁻¹) y lll es la longitud del camino (normalmente 1 cm). Esto supone soluciones diluidas, sin dispersión y luz monocromática. Los espectros muestran bandas anchas debido al acoplamiento vibrónico, y los disolventes provocan cambios batocrómicos o hipsocrómicos.[68]
Los instrumentos cuentan con una fuente de luz ultravioleta (lámpara de deuterio, 190 a 400 nm), una fuente visible (lámpara halógena de tungsteno, 320 a 1100 nm) y, a menudo, una configuración combinada. Un monocromador (rejilla de difracción o prisma) selecciona longitudes de onda, seguido de un compartimento de muestra con cubetas de cuarzo emparejadas (para UV; vidrio solo para visible) que contienen de 1 a 3 ml de solución. Los detectores incluyen tubos fotomultiplicadores para una alta sensibilidad o conjuntos de fotodiodos para un escaneo rápido. Los diseños de doble haz alternan entre los haces de muestra y de referencia para corregir las desviaciones, lo que permite mediciones precisas en 0,001 a 2 unidades de absorbancia.[11]
La preparación de muestras implica disolver analitos en disolventes no absorbentes (p. ej., etanol, agua); las longitudes del camino se ajustan para absorbentes fuertes (por ejemplo, 0,1 cm para muestras concentradas). El escaneo generalmente cubre 200 a 800 nm con una resolución de 1 a 2 nm, lo que produce gráficos de absorbancia versus longitud de onda para el análisis.[67]
Aplicaciones y ejemplos
La espectrofotometría UV-Vis destaca en la determinación cuantitativa de concentraciones mediante curvas de calibración, así como en la identificación cualitativa de grupos funcionales mediante valores característicos de λ_max. En química analítica, analiza metales de transición mediante colorimetría (por ejemplo, cobre con amoníaco a 620 nm) o productos farmacéuticos como el paracetamol a 243 nm.[69]
Las aplicaciones bioquímicas incluyen la cuantificación de ácidos nucleicos (A_{260} = 1 para 50 μg/mL de ADNds, ε ≈ 6600 M⁻¹ cm⁻¹ por nucleótido) y ensayos de proteínas (A_{280} para tirosina/triptófano; método de Bradford a 595 nm con colorante Coomassie). Monitorea la cinética enzimática, como la producción de NADH en deshidrogenasas a 340 nm (ε = 6220 M⁻¹ cm⁻¹) y cambios conformacionales en proteínas mediante cambios espectrales.[70]
En ciencias ambientales, detecta nitratos (220 nm, ε ≈ 10 000 M⁻¹ cm⁻¹) o contaminantes orgánicos como el benceno (254 nm) en el agua, a menudo con monitores en línea para un control de calidad en tiempo real. Los usos clínicos abarcan la medición de hemoglobina (540 nm) en sangre o ensayos de bilirrubina en recién nacidos. El método admite el seguimiento del crecimiento microbiano a través de OD_{600} para turbidez, correlacionándose con la densidad celular (p. ej., 1 OD ≈ 8 × 10^8 UFC/mL para E. coli).[71]
Los ejemplos incluyen la verificación de colorantes alimentarios (por ejemplo, Allura Red a 504 nm para su concentración en bebidas) y la caracterización de nanomateriales, donde las nanopartículas de oro muestran resonancia de plasmón superficial a ~520 nm, lo que indica el tamaño (10 a 100 nm). En el control de calidad, garantiza la pureza del fármaco comparando espectros con estándares. Las limitaciones implican interferencias de la matriz y falta de especificidad para analitos no cromóforos, lo que a menudo requiere separación de palabras en la cromatografía.[72]
Espectrofotometría infrarroja
La espectrofotometría infrarroja, también conocida como espectroscopia infrarroja (IR), analiza las vibraciones moleculares midiendo la absorción de la radiación IR en el rango de 14000 a 10 cm⁻¹, dividida en IR cercano (14000 a 4000 cm⁻¹), IR medio (4000 a 400 cm⁻¹, que abarca transiciones vibratorias fundamentales) e IR lejano (400 a 10). cm⁻¹).[73] La región IR media se utiliza más comúnmente para identificar grupos funcionales debido a su correspondencia con las energías de los enlaces moleculares.[73]
Los principios subyacentes se basan en la excitación de modos de vibración molecular, como el estiramiento (alargamiento/compresión simétrico o asimétrico de enlaces) y la flexión (deformaciones de tijera, balanceo, movimiento o torsión), que ocurren a frecuencias específicas determinadas por las masas de los átomos y las fuerzas de los enlaces. Para que una vibración sea activa en IR, debe inducir un cambio en el momento dipolar de la molécula, según la regla de selección derivada de las integrales dipolares de transición de la mecánica cuántica; Los modos simétricos en moléculas diatómicas homonucleares, como el N₂, son, por tanto, inactivos.[74] La región de la huella digital (1500–600 cm⁻¹) presenta bandas complejas y superpuestas de vibraciones esqueléticas, lo que proporciona una firma espectral única para la identificación de compuestos similar a una "huella digital" molecular.[73]
La configuración instrumental en espectrofotometría IR generalmente emplea una fuente IR de banda ancha, como un globar (una varilla de carburo de silicio calentada que emite entre ~5000 y 400 cm⁻¹), combinada con un interferómetro en sistemas IR por transformada de Fourier (FT-IR) para generar un interferograma que se transforma mediante Fourier en un espectro. El interferómetro de Michelson divide el haz fuente, introduce una diferencia de trayectoria a través de un espejo en movimiento y lo recombina para generar interferencia, lo que permite mediciones de alta resolución sin rendijas.[75] Los materiales transparentes a los rayos IR son esenciales para la manipulación de muestras; Las ventanas o gránulos de bromuro de potasio (KBr) se utilizan para los sólidos, mientras que los cristales de reflectancia total atenuada (ATR) (por ejemplo, diamante o ZnSe) facilitan el análisis directo de sólidos o líquidos mediante la penetración de ondas evanescentes.[73]
La preparación de muestras varía según la técnica: el modo de transmisión a menudo implica dispersar sólidos en mezclas de Nujol (aceite mineral) entre placas de KBr o presionarlos en gránulos de KBr (~1% de muestra en peso) para obtener películas delgadas uniformes; los métodos de reflexión incluyen espectroscopia de reflectancia difusa para polvos; y celdas de gas con ventanas transparentes a los rayos IR (por ejemplo, NaCl) para vapores.[73] La absorbancia sigue la ley de Beer-Lambert, A = εcl, donde la longitud de trayectoria l se adapta a las células IR (normalmente 0,01 a 1 mm) para evitar la saturación.[73]
La interpretación espectral se centra en las posiciones y formas características de las bandas; por ejemplo, el estiramiento O-H en alcoholes aparece como una banda ancha a ~3400 cm⁻¹ debido al ensanchamiento inducido por los enlaces de hidrógeno y la multiplicidad de vibraciones, mientras que el estiramiento C=O en carbonilos muestra un pico agudo e intenso a ~1700 cm⁻¹.[73] Los enlaces de hidrógeno reducen las frecuencias vibratorias y amplían las bandas al crear un conjunto de fuerzas de enlace ligeramente variadas.
FT-IR ofrece ventajas clave sobre el IR dispersivo: la ventaja de Fellgett (multiplex), donde todas las longitudes de onda se detectan simultáneamente para mejorar la relación señal-ruido en √N (N = elementos de resolución), y la ventaja de Jacquinot (rendimiento), que permite una mayor recolección de luz sin rendijas para escaneos más rápidos (a menudo <1 s por espectro).
La espectrofotometría infrarroja (IR) se emplea ampliamente para la identificación cualitativa de estructuras moleculares, particularmente en compuestos orgánicos, mediante la detección de bandas de absorción características correspondientes a grupos funcionales como tramos C-H, O-H y C=O. Por ejemplo, en la ciencia de los polímeros, los espectros IR permiten determinar la composición y la distribución de la secuencia a través de relaciones de intensidad máxima, como se demuestra en el análisis del tereftalato de polietileno, donde las bandas de carbonilo y éter revelan relaciones de copolímero. Esta técnica es esencial para la elucidación estructural en materiales sintéticos, lo que permite a los investigadores confirmar la presencia de restos específicos sin destrucción de la muestra.
Las aplicaciones cuantitativas de la espectrofotometría IR incluyen análisis a nivel de trazas y monitoreo de procesos en tiempo real. En el monitoreo ambiental, cuantifica la contaminación por petróleo en el agua midiendo la intensidad de las bandas de estiramiento de CH alifático alrededor de 2900 cm⁻¹, logrando límites de detección tan bajos como 1 ppm en muestras marinas. Para las reacciones químicas, la reflectancia total atenuada (ATR)-FTIR facilita el seguimiento in situ de los puntos finales, como en los procesos de esterificación donde la desaparición de los picos ácidos de O-H indica la finalización, lo que permite una ampliación eficiente en entornos industriales.
Los ejemplos prácticos abarcan múltiples campos, incluidos la ciencia forense, la farmacéutica y la ciencia de los alimentos. En el análisis forense, el IR se utiliza para comparar fragmentos de pintura de la escena del crimen comparando firmas de silicato y aglutinantes orgánicos, lo que ayuda a la identificación de vehículos con alta especificidad. Las aplicaciones farmacéuticas implican la detección de polimorfos en formulaciones de fármacos; por ejemplo, FTIR distingue entre formas anhidra e hidratada de cafeína mediante cambios en los modos de estiramiento del carbonilo o vibración del anillo, lo que garantiza la estabilidad y biodisponibilidad del producto. En el análisis de alimentos, perfila el contenido de ácidos grasos en los aceites, como la cuantificación de las grasas trans en la margarina a través de deformaciones trans C-H aisladas a 966 cm⁻¹, lo que respalda el cumplimiento del etiquetado nutricional.
Las variantes no destructivas mejoran la versatilidad del IR para diversos tipos de muestras. ATR-FTIR permite el análisis de superficies de sólidos como recubrimientos o tejidos sin preparación, comúnmente aplicado en el patrimonio cultural para identificar pigmentos en obras de arte mediante bandas de Si-O. La espectroscopia IR fotoacústica extiende esto a muestras opacas o en polvo, como minerales geológicos, generando señales acústicas a partir de IR absorbidas, útiles para perfiles en profundidad sin contacto físico. Las técnicas con guiones, como la cromatografía de gases-IR (GC-IR), combinan la separación con la identificación, lo que permite la caracterización de mezclas complejas como los aceites esenciales, donde los componentes eluidos se identifican por sus huellas dactilares IR únicas después del aislamiento cromatográfico.
Otras técnicas espectrofotométricas
Espectrofotometría de absorción atómica
La espectrofotometría de absorción atómica (AAS) es una técnica analítica empleada para la determinación cuantitativa de elementos traza metálicos midiendo la absorción de radiación resonante por átomos en estado fundamental en la fase gaseosa. Desarrollado por Alan Walsh en la década de 1950, el método se basa en átomos libres que absorben luz en longitudes de onda específicas correspondientes a transiciones electrónicas desde el estado fundamental a niveles de energía más altos. Una lámpara de cátodo hueco, llena con el elemento de interés y un gas inerte como neón o argón, sirve como fuente de luz, emitiendo líneas de emisión nítidas que coinciden con el espectro de absorción de los átomos del analito.
El proceso comienza con la preparación de la muestra para producir una población de átomos libres y no excitados mediante vaporización y atomización. En el AAS con llama, la solución de la muestra se aspira a una llama, como aire-acetileno, que opera a temperaturas de 2000 a 3000 K para desolvatar, volatilizar y disociar la muestra en átomos; este método ofrece un análisis rápido pero está limitado a una sensibilidad de partes por millón (ppm) para la mayoría de los elementos. El horno de grafito AAS mejora la sensibilidad a los niveles de partes por billón (ppb) calentando eléctricamente un tubo de grafito en etapas (secado, incineración, atomización y limpieza), lo que permite volúmenes de muestra más pequeños (normalmente 5 a 20 µl) y tiempos de residencia más largos para los átomos en el camino de la luz, aumentando así la intensidad de la señal. La absorbancia medida se adhiere a la ley de Beer-Lambert, donde la absorción es directamente proporcional a la concentración de átomos en estado fundamental, con absortividades molares atómicas que a menudo exceden los 10 ^ 4 L mol⁻¹ cm⁻¹ debido a los anchos de línea estrechos.
La configuración instrumental incluye la lámpara de cátodo hueco, un atomizador (llama u horno), un monocromador para seleccionar la línea resonante específica y un detector como un tubo fotomultiplicador. Cada elemento requiere una lámpara dedicada para garantizar la especificidad de la línea, ya que las lámparas de elementos múltiples pueden comprometer la resolución. La corrección de fondo es fundamental para restar interferencias no atómicas como la absorción o dispersión molecular; Los métodos comunes incluyen la lámpara continua de deuterio, que proporciona luz de amplio espectro para la medición de la línea base, y la corrección del efecto Zeeman, donde un campo magnético divide las líneas de emisión de la lámpara para aislar la absorción del analito del fondo. Las líneas de absorción atómica son inherentemente estrechas, con anchos de alrededor de 0,002 nm a temperaturas típicas de llama, lo que permite una alta selectividad pero exige una alineación precisa de la longitud de onda (a menudo ±0,1 nm). Las interferencias incluyen la ionización, suprimida mediante la adición de supresores de ionización como el cesio, e interferencias químicas, mitigadas mediante agentes liberadores como el lantano para elementos refractarios.
AAS encuentra una amplia aplicación en el monitoreo ambiental, como la detección de plomo en agua potable en la línea de 283,3 nm, donde se pueden cuantificar concentraciones tan bajas como 10 µg/L después de la digestión ácida y el análisis de la llama. En química clínica, se utiliza para medir el calcio en el suero sanguíneo, normalmente a 422,7 nm, lo que ayuda en el diagnóstico de trastornos como la hipercalcemia con límites de detección de alrededor de 0,1 mg/L. Las variantes especializadas abordan elementos volátiles o mal atomizados: el AAS de vapor frío para mercurio implica reducir Hg²⁺ a vapor de Hg⁰ utilizando cloruro estannoso, seguido de una purga en una celda de absorción para medir a 253,7 nm sin atomización térmica, logrando una sensibilidad inferior a ppb. Generación de hidruros Los AAS, aplicados al arsénico y al selenio, generan hidruros volátiles (p. ej., AsH₃, H₂Se) mediante la reducción de borohidruro de sodio en medios ácidos, atrapándolos en una celda de cuarzo calentada para su atomización y detección a 193,7 nm (As) o 196,0 nm (Se), lo que mejora la sensibilidad a los niveles de trazas en sustancias biológicas y en agua. muestras.[83][84][85][86]
Espectrofotometría de fluorescencia
La espectrofotometría de fluorescencia es una técnica que mide la emisión de fluorescencia de una muestra después de la excitación por luz, generalmente en el rango ultravioleta-visible, lo que proporciona una alta sensibilidad para detectar bajas concentraciones de analitos. El proceso comienza con la absorción de fotones por un fluoróforo, promoviendo electrones desde el estado singlete fundamental (S₀) a un estado singlete excitado, más comúnmente S₁, como se ilustra en el diagrama de Jablonski. Desde el estado S₁, la molécula puede regresar a S₀ a través de fluorescencia, emitiendo un fotón o mediante vías de desintegración no radiativa, como la conversión interna o el cruce entre sistemas al estado triplete (T₁), lo que conduce a la fosforescencia, un proceso de emisión de mayor duración que ocurre en el orden de milisegundos a segundos, en contraste con la escala de tiempo de nanosegundos de la fluorescencia. La fluorescencia emitida se desplaza al rojo en relación con la longitud de onda de excitación debido al cambio de Stokes, que surge de la relajación vibratoria en el estado excitado y la reorganización del solvente, lo que generalmente resulta en longitudes de onda de emisión de 10 a 100 nm más largas que la absorción.
La configuración instrumental de un espectrofotómetro de fluorescencia incluye una fuente de luz, como una lámpara de arco de xenón, seguida de un monocromador de excitación para seleccionar la longitud de onda deseada para iluminar la muestra en una cubeta o celda de flujo.[88] La luz emitida se recoge en ángulo recto (90°) con respecto al haz de excitación para minimizar la detección de luz de excitación dispersa y dispersión de Rayleigh, luego se pasa a través de un monocromador de emisión para aislar el espectro de fluorescencia antes de llegar a un fotodetector como un tubo fotomultiplicador. Esta configuración mejora la relación señal-ruido, lo que permite límites de detección de hasta partes por mil millones (ppb) para especies fluorescentes.[90]
La eficiencia de la fluorescencia se cuantifica mediante el rendimiento cuántico (Φ), definido como la relación entre fotones emitidos y fotones absorbidos, que varía de 0 a 1 y depende de vías de relajación competitivas.[91] La vida útil de la fluorescencia (τ), el tiempo promedio que una molécula pasa en estado excitado (normalmente 1 a 10 ns), está influenciada por mecanismos de extinción, incluida la extinción por colisión en la que un extintor como el oxígeno choca con el fluoróforo para promover la desintegración no radiativa y la extinción estática mediante la formación de complejos. Además, el efecto del filtro interno reduce la intensidad observada por la absorbancia de la luz de excitación (filtro interno primario) o la reabsorción de la luz emitida (filtro interno secundario), particularmente en soluciones concentradas o altamente absorbentes, lo que requiere correcciones basadas en mediciones de absorbancia.
Aplicaciones en todos los campos
Química y Bioquímica
En química, la espectrofotometría UV-visible juega un papel crucial en el seguimiento del progreso de la reacción, particularmente para los procesos que involucran conjugación, donde los cambios en la absorbancia reflejan la formación de sistemas π extendidos. Por ejemplo, la extensión de la conjugación en moléculas orgánicas conduce a cambios batocrómicos e hipercrómicos en los espectros de absorción, lo que permite el seguimiento en tiempo real de la cinética de reacción.[67] De manera similar, las mediciones de absorbancia permiten la determinación de constantes de equilibrio mediante la observación de cambios espectrales tras una perturbación, como en la unión de ligandos o en los equilibrios ácido-base, donde la relación de concentraciones de especies se deriva de las aplicaciones de la ley de Beer.
En bioquímica, la espectrofotometría es indispensable para la cuantificación de proteínas, ya que la absorbancia UV directa a 280 nm sirve como un método rápido y sin reactivos que aprovecha la absorción de aminoácidos aromáticos como el triptófano y la tirosina.[101] Los ensayos colorimétricos complementarios, como el método de Lowry, que se basa en la reacción de biuret potenciada por el reactivo de Folin-Ciocalteu para la reducción del Cu⁺, y el ensayo del ácido bicinconínico (BCA), que detecta el Cu⁺ mediante un cromóforo púrpura a 562 nm, proporcionan una mayor sensibilidad para muestras de baja concentración.[102] La espectrofotometría UV-visible también facilita los estudios de cinética enzimática, donde las velocidades de reacción iniciales se miden mediante el seguimiento de los cambios de absorbancia del sustrato al producto, lo que permite ajustarlos a los modelos de Michaelis-Menten para derivar parámetros como K_m y V_max.[103] Para los ácidos nucleicos, la evaluación de la pureza mediante la relación A260/A280, idealmente alrededor de 1,8 para el ADN y 2,0 para el ARN, distingue la contaminación por proteínas u otras impurezas basándose en picos de absorbancia diferenciales.[104]
Las valoraciones espectrofotométricas ejemplifican aún más las aplicaciones en ambos campos, donde la adición incremental de ligando induce cambios de absorbancia para cuantificar las afinidades de unión, como se observa en las interacciones hemo-proteína con constantes de disociación (K_d) calculadas a partir de curvas de valoración.[105] En metabolómica, la espectrofotometría infrarroja perfila las composiciones de lípidos identificando bandas de estiramiento C-H características alrededor de 2900 cm⁻¹ y absorciones de carbonilo cerca de 1740 cm⁻¹, lo que permite el análisis no destructivo de fracciones de lípidos en extractos biológicos.[106]
La integración de múltiples técnicas mejora los conocimientos bioquímicos; por ejemplo, la absorbancia UV-visible cuantifica las concentraciones en estado estacionario, mientras que la fluorescencia detecta cambios conformacionales dinámicos en proteínas o ácidos nucleicos.[107] Las adaptaciones de alto rendimiento, como los lectores de placas de múltiples pocillos junto con la detección de absorbancia, respaldan la detección basada en microarrays de interacciones de proteínas o actividades enzimáticas, procesando cientos de muestras simultáneamente para estudios moleculares a escala.[108]
Ciencia ambiental y de materiales
En el monitoreo ambiental, la espectrofotometría desempeña un papel crucial en la detección de contaminantes como los nitratos en cuerpos de agua, donde la espectroscopia ultravioleta-visible (UV-Vis) aprovecha las fuertes bandas de absorción de iones de nitrato alrededor de 200-220 nm para una cuantificación rápida y no destructiva en muestras de agua de mar y agua dulce.[109][110] La espectrofotometría de absorción atómica (AAS) se utiliza ampliamente para el análisis de metales pesados en el suelo y el agua, y ofrece una alta sensibilidad para elementos como plomo, cadmio y mercurio en niveles traza, lo que permite evaluar la contaminación procedente de escorrentías industriales o fuentes agrícolas.[111][112] Las aplicaciones de teledetección utilizan espectrorradiómetros para calcular índices de vegetación como el Índice de Vegetación de Diferencia Normalizada (NDVI), que diferencia la vegetación sana de las áreas estresadas o degradadas al contrastar la reflectancia de la luz roja y del infrarrojo cercano, lo que ayuda en evaluaciones de salud ambiental a gran escala.
Los métodos colorimétricos basados en espectrofotometría proporcionan mediciones esenciales de la calidad del agua, incluida la demanda bioquímica de oxígeno (DBO) y la demanda química de oxígeno (DQO). La DQO se cuantifica mediante oxidación de dicromato seguida de una lectura de absorbancia a 600 nm, mientras que la DBO a menudo se estima mediante espectrofotometría UV-Vis mediante modelos de regresión que correlacionan la absorbancia espectral con la demanda de oxígeno; Los valores de DQO normalmente superan a los de DBO debido a un alcance de oxidación más amplio.[115][116] Las herramientas implementables sobre el terreno, como los espectrofotómetros UV-Vis portátiles, facilitan la detección in situ de derrames de petróleo mediante el análisis de espectros de fluorescencia o absorción en el rango UV-visible, lo que permite la identificación en tiempo real de hidrocarburos de petróleo en entornos marinos.[117][118] Las imágenes hiperespectrales, una técnica espectrofotométrica avanzada, respaldan el mapeo de minerales al capturar la reflectancia a través de cientos de bandas espectrales estrechas, lo que permite discriminar minerales alterados como arcillas y sulfatos en estudios geológicos para la exploración de recursos y la evaluación del impacto ambiental.
Para los esfuerzos de sostenibilidad, la espectroscopia de absorción transitoria UV-Vis monitorea los fotocatalizadores mediante el seguimiento de la dinámica de los portadores de carga y los intermediarios de reacción, lo que proporciona información sobre la eficiencia para aplicaciones como la degradación de contaminantes bajo irradiación solar.[121][122]
En ciencia de materiales, la espectrofotometría infrarroja (IR) evalúa la degradación del polímero a través del índice de carbonilo, calculado como la relación entre la absorbancia del carbonilo en aproximadamente 1710 cm⁻¹ y una banda de referencia como 1460 cm⁻¹, cuantificando los cambios oxidativos en el polietileno y el polipropileno expuestos a factores ambientales estresantes.[123][124] La espectrofotometría UV-Vis caracteriza las nanopartículas mediante el análisis de la resonancia de plasmón superficial localizada, donde los cambios máximos de longitud de onda en el rango de 500 a 600 nm se correlacionan con tamaños de partículas de oro o plata de 5 a 100 nm, lo que ayuda en el control de calidad de los nanomateriales en compuestos. La espectrofotometría visible mide el espesor de las películas delgadas a través de patrones de interferencia, con espectros de reflectancia oscilatoria analizados para determinar capas tan delgadas como 10 nm en sustratos como silicio o vidrio, esenciales para recubrimientos en células solares y ópticas. Los espectrofotómetros portátiles de mano se emplean en la ciencia de materiales automotrices para lograr una igualación precisa del color de la pintura en aplicaciones de reparación inteligentes, lo que permite reparaciones perfectas de daños menores sin tener que volver a pintar paneles enteros.[129]
Análisis cuantitativo y limitaciones
Fuentes de error y calibración
La calibración en espectrofotometría garantiza la precisión y confiabilidad de las mediciones de absorbancia al establecer una relación entre la respuesta del instrumento y la concentración del analito, a menudo basándose en la ley de Beer-Lambert como base para las comprobaciones de linealidad. Los estándares externos comúnmente se preparan mediante diluciones en serie de una solución madre para generar una curva de calibración que abarca el rango de concentración esperado, lo que permite la verificación de la respuesta lineal del instrumento en múltiples puntos. Este enfoque minimiza los errores de no linealidad en absorbancias altas y es esencial para el análisis cuantitativo, donde las diluciones generalmente se realizan de manera gradual (por ejemplo, proporciones 1:10) para cubrir de manera eficiente concentraciones bajas a altas.[130]
Se emplean estándares internos para tener en cuenta los efectos de la matriz, donde las variaciones en la composición de la muestra pueden alterar la respuesta del analito; estos implican agregar un compuesto conocido con un comportamiento químico similar pero propiedades espectrales distintas tanto a los estándares como a las muestras, lo que permite la normalización de las lecturas de absorbancia para la comparación de matrices. Esta técnica es particularmente útil en muestras complejas, como fluidos biológicos, para compensar interferencias no específicas sin alterar significativamente la matriz de la muestra. Al comparar la relación analito-estándar interno en todo el conjunto de calibración, se minimizan las variaciones inducidas por la matriz, lo que mejora la precisión en las determinaciones cuantitativas.[131]
Las fuentes de error comunes en espectrofotometría incluyen la luz parásita, que surge de trayectorias de luz no deseadas dentro del instrumento y reduce el rango dinámico efectivo al agregar una compensación constante a las lecturas de transmitancia, lo que lleva a una subestimación de la absorbancia en altas concentraciones. La fotodescomposición ocurre cuando la exposición prolongada al haz de medición degrada los analitos sensibles a la luz, lo que provoca disminuciones de la absorbancia que dependen del tiempo y requiere mediciones rápidas o condiciones protectoras para los compuestos lábiles. Los efectos de la temperatura influyen en la absortividad molar (ε) de los analitos, ya que los cambios térmicos pueden cambiar las bandas espectrales o alterar las interacciones moleculares, con variaciones típicas de 0,1 a 1 % por °C que requieren temperaturas controladas de la muestra y del instrumento para obtener resultados reproducibles.[132][133][134]
Los errores instrumentales comprometen aún más la precisión, con imprecisiones en las longitudes de onda resultantes de la deriva del monocromador o errores de calibración, verificables utilizando soluciones de óxido de holmio que exhiben picos agudos en longitudes de onda conocidas (por ejemplo, 241,15 nm, 287,15 nm) para garantizar que las desviaciones permanezcan por debajo de ±1 nm. Los errores de linealidad fotométrica surgen de la saturación del detector o de imperfecciones ópticas, evaluados midiendo estándares certificados en valores de absorbancia de 0 a 2, lo que confirma el cumplimiento del comportamiento lineal esperado según las especificaciones del fabricante. Estos controles son rutinarios para la calificación de instrumentos y a menudo siguen estándares farmacopeicos para mantener la trazabilidad.[135]
El tratamiento estadístico de los datos espectrofotométricos implica calcular el límite de detección (LOD) como 3σ dividido por la pendiente de la curva de calibración, donde σ es la desviación estándar de la respuesta en blanco, lo que proporciona una medida de la concentración de analito detectable más baja con un 99 % de confianza. La validación sigue las pautas ICH Q2(R1), que recomiendan evaluar la especificidad, linealidad, exactitud, precisión y solidez mediante análisis replicados y pruebas estadísticas para garantizar la confiabilidad del método para aplicaciones regulatorias. Estos parámetros establecen el rendimiento analítico, con un LOD típicamente en el rango de 10^{-5} a 10^{-6} M para muchos ensayos UV-Vis dependiendo de la sensibilidad del instrumento.[136]
Las técnicas de corrección para especies que interfieren incluyen el análisis de múltiples longitudes de onda, donde se mide la absorbancia en múltiples puntos a lo largo del espectro para desconvolucionar las señales superpuestas del analito objetivo y las interferencias utilizando álgebra lineal o métodos derivados. Este enfoque mejora la selectividad al aprovechar las diferencias en los perfiles espectrales, lo que reduce los errores de los compuestos coabsorbentes sin separación física y es particularmente eficaz en ensayos de rutina con interferencias conocidas.[137]
Interpretación de datos
La interpretación de datos en espectrofotometría implica transformar datos espectrales sin procesar en conocimientos cuantitativos y cualitativos significativos, a menudo basándose en mediciones calibradas para garantizar la precisión. El procesamiento espectral es un paso fundamental, donde técnicas como la sustracción de la línea base eliminan las compensaciones sistemáticas causadas por la deriva del instrumento o los efectos de la matriz de la muestra, lo que permite una identificación más clara de las señales del analito.[138] Los métodos de suavizado, incluido el filtro Savitzky-Golay, aplican un ajuste de mínimos cuadrados polinómicos locales para reducir el ruido y al mismo tiempo preservar las formas y anchos de los picos, normalmente utilizando un polinomio cuadrático en una ventana de 5 a 21 puntos, según la resolución de los datos. La deconvolución refina aún más los espectros separando matemáticamente los picos superpuestos o ampliando el instrumento, empleando a menudo algoritmos iterativos como el método de Richardson-Lucy para recuperar perfiles de banda verdaderos.
El análisis de picos cuantifica las características espectrales ajustando modelos a bandas de absorción o emisión, donde las funciones gaussianas modelan picos simétricos que surgen de un ensanchamiento homogéneo y las funciones de Lorentz describen colas asimétricas de efectos de presión o vida útil.[141] La integración de áreas bajo picos ajustados proporciona estimaciones de concentración a través de la ley de Beer, con software que automatiza la selección de la línea de base y el ajuste de curvas para minimizar los residuos, logrando precisiones a menudo inferiores al 1% de desviación estándar relativa para bandas bien resueltas.
Para mezclas complejas, las técnicas multivariadas extraen patrones latentes a partir de datos espectrales de alta dimensión. El análisis de componentes principales (PCA) descompone los espectros en componentes ortogonales que capturan la varianza, lo que facilita la clasificación de muestras al agrupar perfiles similares en gráficos de puntuación, como se demuestra en estudios UV-Vis de mezclas de lantánidos donde los dos primeros componentes explicaron más del 95% de la variabilidad.[143] La regresión de mínimos cuadrados parciales (PLS) amplía esto para el modelado predictivo, correlacionando componentes principales espectrales con concentraciones de referencia para pronosticar niveles de analitos, produciendo errores cuadráticos medios tan bajos como 0,5% en aplicaciones de control de calidad farmacéutica.[144]
El software especializado agiliza estos procesos, con herramientas comerciales como Origin que proporcionan ajuste de picos interactivo, módulos PCA/PLS y secuencias de comandos para análisis por lotes de datos UV-Vis.[145] Grams/AI de Thermo Fisher ofrece métodos cuantitativos y de búsqueda espectral integral, integrando rutinas quimiométricas para flujos de trabajo de laboratorio de rutina.[146] Las alternativas de código abierto, como la biblioteca SciPy de Python, permiten implementaciones personalizadas a través de funciones como savgol_filter para suavizar y curve_fit para modelado de picos, promoviendo la reproducibilidad en entornos de investigación.[147]
Encuentra más de "Espectrofotómetros", en los siguientes países:
Los espectrofotómetros de mesa, al ser más grandes y estar basados en laboratorio, admiten una cobertura espectral más amplia y una mayor precisión a través de fuentes de alimentación estables y ópticas avanzadas, lo que los hace preferibles para trabajos de laboratorio complejos y de alta precisión. Su naturaleza estacionaria limita la movilidad pero mejora el rendimiento general en entornos controlados.[36]
Los espectrofotómetros dispersivos utilizan una rejilla o un prisma para aislar longitudes de onda de forma secuencial, lo que ofrece un diseño sencillo para regiones espectrales específicas con buena resolución en aplicaciones de rango visible. Sin embargo, este método requiere tiempos de adquisición más prolongados para espectros completos debido al escaneo secuencial.
Los espectrofotómetros de transformada de Fourier se basan en la interferometría para codificar todas las longitudes de onda simultáneamente a través de un espejo en movimiento, seguido de una transformación matemática para producir el espectro, logrando velocidades y relaciones señal-ruido superiores a través de la ventaja multiplex. Son particularmente eficaces para exploraciones rápidas y de alta resolución, pero exigen un procesamiento de datos más sofisticado.[38]
Los espectrofotómetros automatizados se integran con sistemas robóticos para el manejo de muestras y la adquisición de datos, lo que permite una detección de alto rendimiento de múltiples muestras con una mínima intervención del operador y una variabilidad reducida. Esta configuración es esencial para ensayos a gran escala, aunque requiere una inversión inicial en integración.[39]
Los espectrofotómetros manuales se basan en controles y ubicación de cubetas operados por el usuario, lo que ofrece flexibilidad para protocolos personalizados o de bajo volumen a menor costo, pero son propensos a errores humanos y más lentos para tareas repetitivas.[40]
Los tipos emergentes incluyen lectores de microplacas, que adaptan la detección espectrofotométrica a formatos de pocillos múltiples para el análisis paralelo de numerosas muestras, lo que aumenta la eficiencia en la detección biológica. Las sondas de fibra óptica amplían las capacidades de medición a entornos in situ al transmitir luz de forma remota a sitios inaccesibles, como recipientes de reacción, sin extracción de muestras.[41][42]
La detección de alto rendimiento ha sido posible gracias a lectores de placas de múltiples pocillos, como los sistemas de absorbancia de 96 pocillos, que automatizan ensayos espectrofotométricos para una evaluación rápida de miles de muestras en investigación y desarrollo farmacéutico. Estos instrumentos admiten el monitoreo cinético y las lecturas de puntos finales, lo que acelera el descubrimiento de fármacos al integrarse con manipuladores robóticos de líquidos para una identificación imparcial de los resultados.[63][64]
Las tendencias de sostenibilidad en la década de 2020 enfatizan las fuentes de luz energéticamente eficientes, y los LED reemplazan cada vez más a las lámparas tradicionales de deuterio o tungsteno en los espectrofotómetros debido a su menor consumo de energía (hasta un 80 % menos de energía) y su vida útil más larga, lo que reduce los costos operativos y el impacto ambiental.[65] Este cambio respalda prácticas de laboratorio más ecológicas y al mismo tiempo mantiene la resolución espectral en todos los rangos UV-visibles.[66]
Una limitación clave en la espectrofotometría IR surge con muestras acuosas debido a fuertes bandas de absorción de agua que se superponen a las señales moleculares, lo que puede mitigarse mediante el uso de disolventes deuterados para desplazar los picos OD de la región de interés. Los instrumentos FT-IR portátiles han ampliado aún más las aplicaciones de campo, como la detección in situ de contaminantes del suelo, basándose en avances fundamentales en la interferometría compacta.
Las aplicaciones de la espectrofotometría de fluorescencia destacan en el análisis de trazas debido a su sensibilidad inherente, que a menudo supera a los métodos de absorción entre 10³ y 10⁶ veces. Por ejemplo, detecta hidrocarburos aromáticos policíclicos (HAP) en muestras ambientales como agua o suelo a niveles de ppb, donde la fluorescencia nativa o la derivatización permiten la cuantificación de contaminantes como el benzopireno.[94] En los inmunoensayos, los fluoróforos como el isotiocianato de fluoresceína (FITC) se conjugan con anticuerpos para su unión y detección específicas, lo que permite realizar ensayos sensibles para biomoléculas con límites de detección en el rango nanomolar.[95]
Los ejemplos representativos incluyen la cuantificación del ADN utilizando bromuro de etidio, un tinte intercalante cuyo rendimiento cuántico de fluorescencia aumenta más de 20 veces al unirse al ADN bicatenario, lo que permite la detección a nivel de picogramos mediante emisión a ~600 nm después de una excitación de 300 nm.[96] En el análisis clínico, la espectrofotometría de fluorescencia mide vitaminas como la riboflavina (B₂), que exhibe una fuerte emisión a 520 nm tras una excitación de 450 nm, lo que facilita una evaluación rápida en formulaciones farmacéuticas o fluidos biológicos con alta especificidad.[97]
Las variantes amplían la utilidad de la técnica; La espectrofotometría de fluorescencia de resolución temporal mide la vida útil mediante excitación pulsada y recuento de fotón único correlacionado en el tiempo, distinguiendo fluoróforos con espectros superpuestos basándose en la cinética de desintegración y mitigando la autofluorescencia de fondo.[98] La espectrofotometría de fluorescencia confocal integra la resolución espacial al enfocar la luz de excitación a través de un orificio, lo que permite obtener imágenes de por vida (FLIM) para mapear entornos moleculares en células o tejidos con precisión submicrométrica.[99]
La presentación de informes de datos interpretados requiere estandarización, donde los espectros a menudo se normalizan a unidad de área o absorbancia máxima para comparar formas entre muestras, mitigando la longitud del camino o las variaciones de concentración.[148] La propagación de la incertidumbre toma en cuenta los pasos del procesamiento, utilizando métodos como las simulaciones de Monte Carlo para estimar las incertidumbres estándar combinadas en áreas máximas o cargas de PCA, y generalmente propagando errores de entrada para producir incertidumbres totales del 2 al 5 % en resultados cuantitativos.[149]
En avances recientes, el aprendizaje automático mejora el reconocimiento de patrones en complejos conjuntos de datos espectrofotométricos, con redes neuronales convolucionales que clasifican mezclas de espectros UV-Vis mediante el aprendizaje de características jerárquicas, logrando precisiones superiores al 95 % en la detección de contaminantes ambientales desde principios de la década de 2020.[150]
Los espectrofotómetros de mesa, al ser más grandes y estar basados en laboratorio, admiten una cobertura espectral más amplia y una mayor precisión a través de fuentes de alimentación estables y ópticas avanzadas, lo que los hace preferibles para trabajos de laboratorio complejos y de alta precisión. Su naturaleza estacionaria limita la movilidad pero mejora el rendimiento general en entornos controlados.[36]
Los espectrofotómetros dispersivos utilizan una rejilla o un prisma para aislar longitudes de onda de forma secuencial, lo que ofrece un diseño sencillo para regiones espectrales específicas con buena resolución en aplicaciones de rango visible. Sin embargo, este método requiere tiempos de adquisición más prolongados para espectros completos debido al escaneo secuencial.
Los espectrofotómetros de transformada de Fourier se basan en la interferometría para codificar todas las longitudes de onda simultáneamente a través de un espejo en movimiento, seguido de una transformación matemática para producir el espectro, logrando velocidades y relaciones señal-ruido superiores a través de la ventaja multiplex. Son particularmente eficaces para exploraciones rápidas y de alta resolución, pero exigen un procesamiento de datos más sofisticado.[38]
Los espectrofotómetros automatizados se integran con sistemas robóticos para el manejo de muestras y la adquisición de datos, lo que permite una detección de alto rendimiento de múltiples muestras con una mínima intervención del operador y una variabilidad reducida. Esta configuración es esencial para ensayos a gran escala, aunque requiere una inversión inicial en integración.[39]
Los espectrofotómetros manuales se basan en controles y ubicación de cubetas operados por el usuario, lo que ofrece flexibilidad para protocolos personalizados o de bajo volumen a menor costo, pero son propensos a errores humanos y más lentos para tareas repetitivas.[40]
Los tipos emergentes incluyen lectores de microplacas, que adaptan la detección espectrofotométrica a formatos de pocillos múltiples para el análisis paralelo de numerosas muestras, lo que aumenta la eficiencia en la detección biológica. Las sondas de fibra óptica amplían las capacidades de medición a entornos in situ al transmitir luz de forma remota a sitios inaccesibles, como recipientes de reacción, sin extracción de muestras.[41][42]
La detección de alto rendimiento ha sido posible gracias a lectores de placas de múltiples pocillos, como los sistemas de absorbancia de 96 pocillos, que automatizan ensayos espectrofotométricos para una evaluación rápida de miles de muestras en investigación y desarrollo farmacéutico. Estos instrumentos admiten el monitoreo cinético y las lecturas de puntos finales, lo que acelera el descubrimiento de fármacos al integrarse con manipuladores robóticos de líquidos para una identificación imparcial de los resultados.[63][64]
Las tendencias de sostenibilidad en la década de 2020 enfatizan las fuentes de luz energéticamente eficientes, y los LED reemplazan cada vez más a las lámparas tradicionales de deuterio o tungsteno en los espectrofotómetros debido a su menor consumo de energía (hasta un 80 % menos de energía) y su vida útil más larga, lo que reduce los costos operativos y el impacto ambiental.[65] Este cambio respalda prácticas de laboratorio más ecológicas y al mismo tiempo mantiene la resolución espectral en todos los rangos UV-visibles.[66]
Una limitación clave en la espectrofotometría IR surge con muestras acuosas debido a fuertes bandas de absorción de agua que se superponen a las señales moleculares, lo que puede mitigarse mediante el uso de disolventes deuterados para desplazar los picos OD de la región de interés. Los instrumentos FT-IR portátiles han ampliado aún más las aplicaciones de campo, como la detección in situ de contaminantes del suelo, basándose en avances fundamentales en la interferometría compacta.
Las aplicaciones de la espectrofotometría de fluorescencia destacan en el análisis de trazas debido a su sensibilidad inherente, que a menudo supera a los métodos de absorción entre 10³ y 10⁶ veces. Por ejemplo, detecta hidrocarburos aromáticos policíclicos (HAP) en muestras ambientales como agua o suelo a niveles de ppb, donde la fluorescencia nativa o la derivatización permiten la cuantificación de contaminantes como el benzopireno.[94] En los inmunoensayos, los fluoróforos como el isotiocianato de fluoresceína (FITC) se conjugan con anticuerpos para su unión y detección específicas, lo que permite realizar ensayos sensibles para biomoléculas con límites de detección en el rango nanomolar.[95]
Los ejemplos representativos incluyen la cuantificación del ADN utilizando bromuro de etidio, un tinte intercalante cuyo rendimiento cuántico de fluorescencia aumenta más de 20 veces al unirse al ADN bicatenario, lo que permite la detección a nivel de picogramos mediante emisión a ~600 nm después de una excitación de 300 nm.[96] En el análisis clínico, la espectrofotometría de fluorescencia mide vitaminas como la riboflavina (B₂), que exhibe una fuerte emisión a 520 nm tras una excitación de 450 nm, lo que facilita una evaluación rápida en formulaciones farmacéuticas o fluidos biológicos con alta especificidad.[97]
Las variantes amplían la utilidad de la técnica; La espectrofotometría de fluorescencia de resolución temporal mide la vida útil mediante excitación pulsada y recuento de fotón único correlacionado en el tiempo, distinguiendo fluoróforos con espectros superpuestos basándose en la cinética de desintegración y mitigando la autofluorescencia de fondo.[98] La espectrofotometría de fluorescencia confocal integra la resolución espacial al enfocar la luz de excitación a través de un orificio, lo que permite obtener imágenes de por vida (FLIM) para mapear entornos moleculares en células o tejidos con precisión submicrométrica.[99]
La presentación de informes de datos interpretados requiere estandarización, donde los espectros a menudo se normalizan a unidad de área o absorbancia máxima para comparar formas entre muestras, mitigando la longitud del camino o las variaciones de concentración.[148] La propagación de la incertidumbre toma en cuenta los pasos del procesamiento, utilizando métodos como las simulaciones de Monte Carlo para estimar las incertidumbres estándar combinadas en áreas máximas o cargas de PCA, y generalmente propagando errores de entrada para producir incertidumbres totales del 2 al 5 % en resultados cuantitativos.[149]
En avances recientes, el aprendizaje automático mejora el reconocimiento de patrones en complejos conjuntos de datos espectrofotométricos, con redes neuronales convolucionales que clasifican mezclas de espectros UV-Vis mediante el aprendizaje de características jerárquicas, logrando precisiones superiores al 95 % en la detección de contaminantes ambientales desde principios de la década de 2020.[150]