Las transformaciones de logaritmo y raíz cuadrada se utilizan habitualmente para datos positivos, y la transformación inversa multiplicativa (recíproca) puede utilizarse para datos distintos de cero. La transformación de potencia es una familia de transformaciones parametrizadas por un valor no negativo λ que incluye el logaritmo, la raíz cuadrada y la inversa multiplicativa como casos especiales. Para abordar la transformación de datos de forma sistemática, es posible utilizar técnicas de estimación estadística para estimar el parámetro λ en la transformación de potencia, identificando así la transformación que es aproximadamente la más adecuada en un entorno determinado. Dado que la familia de transformaciones de potencia también incluye la transformación de identidad, este enfoque también puede indicar si sería mejor analizar los datos sin una transformación. En el análisis de regresión, este enfoque se conoce como la técnica de Box-Cox.
La transformación recíproca, algunas transformaciones de potencia como la transformación de Yeo-Johnson, y algunas otras transformaciones como la aplicación del seno hiperbólico inverso, pueden aplicarse de forma significativa a los datos que incluyen tanto valores positivos como negativos (la transformación de potencia es invertible sobre todos los números reales si λ es un número entero impar). Sin embargo, cuando se observan valores tanto negativos como positivos, a veces es común comenzar añadiendo una constante a todos los valores, produciendo un conjunto de datos no negativos a los que se puede aplicar cualquier transformación de potencia.
Una situación común en la que se aplica una transformación de datos es cuando un valor de interés varía en varios órdenes de magnitud. Muchos fenómenos físicos y sociales presentan este comportamiento: los ingresos, las poblaciones de especies, el tamaño de las galaxias y el volumen de las precipitaciones, por nombrar algunos. Las transformadas de potencia, y en particular el logaritmo, pueden utilizarse a menudo para inducir la simetría en estos datos. El logaritmo es a menudo favorecido porque es fácil interpretar su resultado en términos de «cambios de pliegues»
El logaritmo también tiene un efecto útil en las proporciones. Si estamos comparando cantidades positivas X e Y utilizando la relación X / Y, entonces si X < Y, la relación está en el intervalo (0,1), mientras que si X > Y, la relación está en la línea media (1,∞), donde la relación de 1 corresponde a la igualdad. En un análisis en el que X e Y se tratan simétricamente, el log-ratio log(X / Y) es cero en el caso de la igualdad, y tiene la propiedad de que si X es K veces mayor que Y, el log-ratio es el equidistante de cero como en la situación en la que Y es K veces mayor que X (los log-ratios son log(K) y -log(K) en estas dos situaciones).
Si los valores están naturalmente restringidos para estar en el rango de 0 a 1, sin incluir los puntos finales, entonces una transformación logit puede ser apropiada: esto produce valores en el rango (-∞,∞).
Transformación a la normalidadEditar
1. No siempre es necesario o deseable transformar un conjunto de datos para que se parezca a una distribución normal. Sin embargo, si se desea la simetría o la normalidad, a menudo se pueden inducir mediante una de las transformaciones de potencia.
2. Una función de potencia lingüística se distribuye según la ley de Zipf-Mandelbrot. La distribución es extremadamente puntiaguda y leptocúrtica, esta es la razón por la que los investigadores han tenido que dar la espalda a la estadística para resolver, por ejemplo, los problemas de atribución de autoría. No obstante, el uso de la estadística gaussiana es perfectamente posible aplicando una transformación de los datos.
3. Para evaluar si se ha alcanzado la normalidad tras la transformación, se puede utilizar cualquiera de las pruebas de normalidad estándar. Un enfoque gráfico suele ser más informativo que una prueba estadística formal, por lo que se suele utilizar un gráfico de cuantiles normales para evaluar el ajuste de un conjunto de datos a una población normal. Alternativamente, también se han propuesto reglas empíricas basadas en la asimetría y la curtosis de la muestra.
Transformación a una distribución uniforme o a una distribución arbitrariaEditar
Si observamos un conjunto de n valores X1, …, Xn sin empates (es decir, hay n valores distintos), podemos sustituir Xi por el valor transformado Yi = k, donde k se define de forma que Xi es el kº mayor entre todos los valores X. Esto se denomina transformación de rango, y crea datos con un ajuste perfecto a una distribución uniforme. Este enfoque tiene un análogo poblacional.
Usando la transformada integral de probabilidad, si X es cualquier variable aleatoria, y F es la función de distribución acumulativa de X, entonces mientras F sea invertible, la variable aleatoria U = F(X) sigue una distribución uniforme en el intervalo unitario.
Desde una distribución uniforme, podemos transformar a cualquier distribución con una función de distribución acumulativa invertible. Si G es una función de distribución acumulativa invertible, y U es una variable aleatoria uniformemente distribuida, entonces la variable aleatoria G-1(U) tiene G como función de distribución acumulativa.
Juntando las dos, si X es una variable aleatoria cualquiera, F es la función de distribución acumulativa invertible de X, y G es una función de distribución acumulativa invertible entonces la variable aleatoria G-1(F(X)) tiene a G como su función de distribución acumulativa.
Transformaciones estabilizadoras de la varianzaEditar
Muchos tipos de datos estadísticos exhiben una «relación de varianza sobre la media», lo que significa que la variabilidad es diferente para los valores de los datos con diferentes valores esperados. Por ejemplo, al comparar diferentes poblaciones del mundo, la varianza de la renta tiende a aumentar con la renta media. Si consideramos una serie de unidades de área pequeñas (por ejemplo, condados en los Estados Unidos) y obtenemos la media y la varianza de los ingresos dentro de cada condado, es común que los condados con ingresos medios más altos también tengan varianzas más altas.
Una transformación estabilizadora de la varianza tiene como objetivo eliminar una relación de varianza sobre la media, de modo que la varianza se vuelva constante en relación con la media. Ejemplos de transformaciones estabilizadoras de la varianza son la transformación de Fisher para el coeficiente de correlación de la muestra, la transformación de la raíz cuadrada o la transformación de Anscombe para los datos de Poisson (datos de recuento), la transformación de Box-Cox para el análisis de regresión, y la transformación de la raíz cuadrada del arcoseno o la transformación angular para las proporciones (datos binomiales). Aunque se utiliza comúnmente para el análisis estadístico de datos proporcionales, no se recomienda la transformación de la raíz cuadrada del arcoseno porque la regresión logística o una transformación logit son más apropiadas para proporciones binomiales o no binomiales, respectivamente, especialmente debido a la disminución del error de tipo II.