Errar es de sabios

Transferwise enviando en pausa reddit

Aceptémoslo. Todos cometemos errores: yo, tú y el de al lado. Ocurre. Incluso a los mejores de nosotros – somos humanos después de todo. Algunos errores pasan desapercibidos. Sin embargo, algunos errores -aunque parezcan pequeños- pueden tener a la larga consecuencias que preferiríamos no tener. Si se producen continuamente pequeños errores en un determinado proceso de gestión de la información, puede acabar costando mucho. En algunas empresas puede incluso suponer una pérdida de beneficios.

Towerdata afirma en su blog que «El 65% de las organizaciones citan el error humano como la principal causa de los problemas de datos. Errar es humano, pero cuando se trata de Big Data, errar es perder nuevos negocios y la fidelidad de los clientes».

Un ejemplo de error humano – cómo un pequeño error en una hoja de Excel puede acumular pérdidas – es la experiencia del gigante bancario JP Morgans (según Tim Worstall, colaborador de tecnología para Forbes como se cuenta en el artículo aquí).  La empresa necesitaba crear un nuevo modelo de valor en riesgo para una cartera de créditos sintéticos.  El desarrollador lo creó utilizando una serie de hojas de cálculo de Excel.  Este modelo, según el informe de JP Morgan, tuvo que ser «completado manualmente, mediante un proceso de copiar y pegar datos de una hoja de cálculo a otra».  Los investigadores movieron decenas de miles de millones de dólares utilizando estas hojas de cálculo, sin automatización ni procesos de revisión. Resultó que una de las ecuaciones terminó siendo incorrecta, y el banco perdió varios miles de millones de dólares como resultado.

Tasa de error familiar frente a la tasa de falsos descubrimientos

Al realizar una prueba estadística, uno de los riesgos iniciales que hay que tener en cuenta es el error de tipo I, también conocido como falso positivo. La tasa de error de tipo I se establece mediante alfa nominal, suponiendo que se cumplen todas las condiciones subyacentes del estadístico. La inflación del error de tipo I a nivel de experimento se produce cuando se realizan múltiples pruebas en general para un solo experimento. Existe una tendencia creciente en las ciencias sociales y del comportamiento que utiliza diseños anidados. Se realizó un estudio de Monte Carlo utilizando un diseño de dos capas. Se utilizaron cinco distribuciones teóricas y cuatro conjuntos de datos reales tomados de Micceri (1989), cada uno con cinco tamaños de muestra diferentes y realizados con alfa nominal fijada en 0,05 y 0,01. Se realizaron tanto de forma incondicional como condicional. Todas las permutaciones se realizaron para 1.000.000 de repeticiones. Se descubrió que cuando se realiza de forma incondicional, la tasa de error de tipo I a nivel de experimento aumenta de alfa = 0,05 a 0,10 y de 0,01 a 0,02. Condicionalmente, es extremadamente improbable encontrar resultados para el factor, ya que requiere un nido estadísticamente significativo como precursor, lo que conduce a una potencia extremadamente reducida. Por lo tanto, hay que tener cuidado al interpretar los diseños anidados.

Errar es humano, perdonar es divino quien dijo

Este artículo necesita citas adicionales para su verificación. Por favor, ayude a mejorar este artículo añadiendo citas de fuentes fiables. El material sin fuente puede ser cuestionado y eliminado.Buscar fuentes:  «Family-wise error rate» – noticias – periódicos – libros – scholar – JSTOR (junio de 2016) (Aprende cómo y cuándo eliminar este mensaje de la plantilla)

Tukey (1953) desarrolló el concepto de tasa de error por familias como la probabilidad de cometer un error de tipo I entre un grupo específico, o «familia» de pruebas[1]. Ryan (1959) propuso el concepto relacionado de tasa de error por experimentos, que es la probabilidad de cometer un error de tipo I en un experimento dado[2].

Para resumir, la mejor manera de definir una familia es por la posible inferencia selectiva a la que se enfrenta: Una familia es el conjunto más pequeño de elementos de inferencia en un análisis, intercambiables en cuanto a su significado para el objetivo de la investigación, a partir del cual se podría realizar una selección de resultados para su actuación, presentación o puesta en evidencia (Yoav Benjamini)[cita requerida].

Corrección de bonferroni de la tasa de error por familias

Este artículo necesita citas adicionales para su verificación. Por favor, ayude a mejorar este artículo añadiendo citas de fuentes fiables. El material sin fuente puede ser cuestionado y eliminado.Buscar fuentes:  «Family-wise error rate» – noticias – periódicos – libros – scholar – JSTOR (junio de 2016) (Aprende cómo y cuándo eliminar este mensaje de la plantilla)

Tukey (1953) desarrolló el concepto de tasa de error por familias como la probabilidad de cometer un error de tipo I entre un grupo específico, o «familia» de pruebas[1]. Ryan (1959) propuso el concepto relacionado de tasa de error por experimentos, que es la probabilidad de cometer un error de tipo I en un experimento dado[2].

Para resumir, la mejor manera de definir una familia es por la posible inferencia selectiva a la que se enfrenta: Una familia es el conjunto más pequeño de elementos de inferencia en un análisis, intercambiables en cuanto a su significado para el objetivo de la investigación, a partir del cual se podría realizar una selección de resultados para su actuación, presentación o puesta en evidencia (Yoav Benjamini)[cita requerida].