Métodos de análisis de sensibilidad
Contenido
Existe un gran número de enfoques para realizar un análisis de sensibilidad, muchos de los cuales se han desarrollado para abordar una o varias de las limitaciones comentadas anteriormente. También se distinguen por el tipo de medida de sensibilidad, ya sea basada en (por ejemplo) descomposiciones de varianza"), derivadas parciales o efectos elementales. En general, sin embargo, la mayoría de los procedimientos se ciñen al esquema siguiente:.
En algunos casos, este procedimiento se repetirá, por ejemplo en problemas de gran dimensión en los que el usuario tenga que descartar variables sin importancia antes de realizar un análisis de sensibilidad completo.
Los distintos tipos de "métodos básicos" (que se examinan más adelante) se distinguen por las diversas medidas de sensibilidad que se calculan. Estas categorías pueden solaparse de algún modo. Se pueden dar formas alternativas de obtener estas medidas, bajo las restricciones del problema.
Uno a la vez (OAT)
Artículo principal: Método del factor único.
Uno de los enfoques más sencillos y comunes es el de cambiar un factor cada vez (OAT), para ver qué efecto produce en el resultado.[13][14][15] El OAT suele implicar:.
La sensibilidad puede medirse controlando los cambios en el resultado, por ejemplo, mediante derivadas parciales o regresión lineal. Éste parece un enfoque lógico, ya que cualquier cambio observado en el resultado se deberá inequívocamente a la única variable modificada. Además, al cambiar una variable cada vez, se pueden mantener todas las demás fijas en sus valores centrales o de referencia. Esto aumenta la comparabilidad de los resultados (todos los "efectos" se calculan con referencia al mismo punto central en el espacio) y minimiza las posibilidades de que se bloquee el programa informático, algo más probable cuando se modifican simultáneamente varios factores de entrada. Los modelizadores suelen preferir la OAT por razones prácticas. En caso de fallo del modelo, el modelizador sabe inmediatamente cuál es el factor de entrada responsable del fallo.
Sin embargo, a pesar de su simplicidad, este enfoque no explora completamente el espacio de entrada, ya que no tiene en cuenta la variación simultánea de las variables de entrada. Esto significa que el enfoque OAT no puede detectar la presencia de interacciones entre las variables de entrada y no es adecuado para modelos no lineales.[16].
La proporción de espacio de entrada que queda sin explorar con un enfoque OAT crece superexponencialmente con el número de entradas. Por ejemplo, un espacio de parámetros de 3 variables que se explora de una en una equivale a tomar puntos a lo largo de los ejes x, y y z de un cubo centrado en el origen. El casco convexo que delimita todos estos puntos es un octaedro que tiene un volumen de sólo 1/6 del espacio de parámetros total. Más generalmente, el casco convexo de los ejes de un hiperrectángulo forma un hiperoctaedro que tiene un volumen de . Con 5 entradas, el espacio explorado ya desciende a menos del 1% del espacio total de parámetros. E incluso esto es una sobreestimación, ya que el volumen fuera del eje no se está muestreando en absoluto. Compárese con el muestreo aleatorio del espacio, en el que el casco convexo se aproxima a todo el volumen a medida que se añaden más puntos.[17] Aunque en teoría la escasez de OAT no es un problema para los modelos lineales, la verdadera linealidad es rara en la naturaleza.
Métodos locales basados en derivados
Los métodos basados en la derivada local consisten en tomar la derivada parcial de la salida Y con respecto a un factor de entrada X:.
donde el subíndice x indica que la derivada se toma en un punto fijo del espacio de entrada (de ahí el "local" del nombre de la clase). El modelado adjunto[18][19] y la diferenciación automatizada[20] son métodos de esta clase. Al igual que la OAT, los métodos locales no intentan explorar completamente el espacio de entrada, ya que examinan pequeñas perturbaciones, normalmente una variable cada vez. Es posible seleccionar muestras similares de sensibilidad basada en derivadas mediante Redes Neuronales y realizar la cuantificación de la incertidumbre.
Una de las ventajas de los métodos locales es que es posible hacer una matriz para representar todas las sensibilidades de un sistema, proporcionando así una visión de conjunto que no se puede conseguir con los métodos globales si hay un gran número de variables de entrada y salida.[21].
Análisis de regresión
El análisis de regresión, en el contexto del análisis de sensibilidad, implica ajustar una regresión lineal a la respuesta del modelo y utilizar coeficientes de regresión estandarizados como medidas directas de sensibilidad. La regresión debe ser lineal con respecto a los datos (es decir, un hiperplano, sin términos cuadráticos, etc., como regresores) porque, de lo contrario, es difícil interpretar los coeficientes normalizados. Por lo tanto, este método es más adecuado cuando la respuesta del modelo es lineal; la linealidad puede confirmarse, por ejemplo, si el coeficiente de determinación es grande. Las ventajas del análisis de regresión son su sencillez y su bajo coste computacional.
Métodos basados en la varianza
Artículo principal: Análisis de sensibilidad basado en la varianza.
Los métodos basados en la varianza[22] son una clase de enfoques probabilísticos que cuantifican las incertidumbres de entrada y salida como distribuciones de probabilidad, y descomponen la varianza de salida en partes atribuibles a variables de entrada y combinaciones de variables. La sensibilidad de la salida a una variable de entrada se mide por la cantidad de varianza en la salida causada por esa entrada. Pueden expresarse como expectativas condicionales, es decir, considerando un modelo Y = f(X) para X = {X, X, ... X}, una medida de sensibilidad de la i-ésima variable X viene dada por,.
donde "Var" y "E" denotan los operadores de varianza y valor esperado respectivamente, y X indica el conjunto de todas las variables de entrada excepto X. Esta expresión mide esencialmente la contribución de X por sí sola a la incertidumbre (varianza) en Y (promediada sobre las variaciones en otras variables), y se conoce como índice de sensibilidad de primer orden o índice de efecto principal. Es importante destacar que no mide la incertidumbre causada por las interacciones con otras variables. Otra medida, conocida como índice de efecto total, da la varianza total en Y causada por X y sus interacciones con cualquiera de las otras variables de entrada. Ambas cantidades suelen normalizarse dividiéndolas por Var(Y).
Los métodos basados en la varianza permiten una exploración completa del espacio de entrada, teniendo en cuenta las interacciones y las respuestas no lineales. Por estas razones se utilizan ampliamente cuando es factible calcularlos. Normalmente, este cálculo implica el uso de métodos de Monte Carlo, pero como esto puede implicar muchos miles de ejecuciones del modelo, pueden utilizarse otros métodos (como emuladores) para reducir el gasto computacional cuando sea necesario.
Análisis variográfico de superficies de respuesta (VARS)
Una de las principales deficiencias de los métodos de análisis de sensibilidad anteriores es que ninguno de ellos considera la estructura espacialmente ordenada de la superficie de respuesta/salida del modelo Y=f(X) en el espacio de parámetros. Mediante la utilización de los conceptos de variogramas direccionales y covariogramas, el análisis de variogramas de superficies de respuesta (VARS) aborda esta debilidad mediante el reconocimiento de una estructura de correlación espacialmente continua a los valores de Y, y por lo tanto también a los valores de.
.[23][24].
Básicamente, cuanto mayor es la variabilidad, más heterogénea es la superficie de respuesta a lo largo de una dirección/parámetro particular, a una escala de perturbación específica. En consecuencia, en el marco VARS, los valores de los variogramas direccionales para una escala de perturbación determinada pueden considerarse como una ilustración completa de la información de sensibilidad, mediante la vinculación del análisis de variogramas a los conceptos de dirección y escala de perturbación. Como resultado, el marco VARS tiene en cuenta el hecho de que la sensibilidad es un concepto dependiente de la escala, y por lo tanto supera el problema de la escala de los métodos tradicionales de análisis de sensibilidad.[25] Más importante aún, VARS es capaz de proporcionar estimaciones relativamente estables y estadísticamente robustas de la sensibilidad de los parámetros con un coste computacional mucho menor que otras estrategias (alrededor de dos órdenes de magnitud más eficientes).[26] Cabe destacar que se ha demostrado que existe un vínculo teórico entre el marco VARS y los enfoques basados en la varianza y en la derivada.