Información

Consulta sobre el cálculo del análisis de supervivencia

Consulta sobre el cálculo del análisis de supervivencia


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

De acuerdo con este tutorial, para que la tabla encuentre las estimaciones de supervivencia, la raíz cuadrada de la sexta columna se multiplica por la cuarta columna, que es la probabilidad de supervivencia. El valor que debería venir de la séptima columna para la segunda fila es 0.052 ((raíz cuadrada de 0.003) * 0.950 = 0.052) pero en el tutorial se da 0.049. ¿Estoy cometiendo algún error con el cálculo?
Muchos de los valores de la tabla no coinciden con los cálculos dados.


"0,003" se redondea hacia arriba; el valor exacto es 1/380, que es 0,00263157894… (y algunos lugares decimales más).

Si calcula las entradas de la tabla con algunos lugares decimales más, obtiene 0.04873397172 (y así sucesivamente), que se redondea a 0.049.


¿Cuál es el número mínimo de eventos necesarios para la estimación de Kaplan-Meier en el análisis de supervivencia?

Tengo una cohorte de 1185 pacientes con cáncer de mama: 40 pacientes tienen & lt40 años y 8 pacientes desarrollaron recidiva local (2 de las cuales son & lt40). Quiero ver si existe alguna asociación entre la edad & lt40 años y el riesgo de recurrencia local. ¿Son estos números demasiado pequeños para hacer tal análisis? Cuando trato de ejecutar un análisis de KM en SPSS, no obtengo ningún dato para el tiempo medio de supervivencia (solo vea los datos para el tiempo medio de supervivencia, IC 95%), pero Log Rank, Breslow y Tarone-Ware producen p & lt0.05. Sin embargo, no estoy seguro de si estos resultados son significativos debido a la pequeña cantidad de eventos.


Consulta sobre el cálculo del análisis de supervivencia - Biología


Las páginas web que se enumeran a continuación comprenden un paquete de software estadístico multiplataforma poderoso, convenientemente accesible. También hay enlaces a libros de estadísticas en línea, tutoriales, software descargable y recursos relacionados.

Estas páginas están ubicadas en servidores de todo el mundo y son el resultado de mucha inteligencia y arduo trabajo por parte de algunas personas muy talentosas. Por lo tanto, si encuentra una página útil, sería bueno enviar a los autores un breve correo electrónico expresando su agradecimiento por su arduo trabajo y generosidad al hacer que este software sea de libre acceso para todo el mundo.

Otros recursos estadísticos.

Primero: ¡elija la prueba correcta! [volver al índice]

Existe una cantidad asombrosa de análisis estadísticos, y elegir el correcto para un conjunto de datos en particular puede ser una tarea abrumadora. Aquí hay algunas páginas web que pueden ayudar:

    , de los desarrolladores del paquete MicrOsiris. Este es un conjunto interactivo de páginas web para ayudarlo a seleccionar el tipo de análisis adecuado para realizar en sus datos. Le hace una serie simple de preguntas sobre sus datos (cuántas variables, etc.), luego hace recomendaciones sobre la mejor prueba a realizar. , Capítulo 37 del libro del Dr. Harvey Motulsky Bioestadística intuitiva. , de Bill Trochim (Cornell). Otro conjunto interactivo de páginas web para ayudarlo a seleccionar el tipo de análisis adecuado para realizar en sus datos. (Proporcionado por Dominik Heeb)
    • Ayuda a encontrar el análisis correcto, basado en datos reales
    • Realiza el análisis sobre los datos reales
    • Inglés y alemán
    • Gratis

Sitios web del "Paquete de software en línea" [volver al índice]

Como puede ver en el sitio web de StatPages.org, hay muchas páginas web "independientes" que están diseñadas para realizar una única prueba o cálculo. Además, algunas personas y grupos talentosos han creado un sitio web coherente que realiza un conjunto completo de cálculos, con una organización lógica y una interfaz de usuario coherente. Cada uno de estos sitios web es realmente un paquete de software estadístico en línea bastante completo en sí mismo. Estos son algunos de estos sitios web de análisis estadístico "completo":

    - una versión basada en navegador del software estadístico Stratigraphics. Proporciona gráficos, distribuciones de probabilidad, estadísticas resumidas, análisis de una, dos y múltiples muestras, análisis de series de tiempo, análisis de regresión, ajuste de curvas, estimaciones de atributos, ANOVA, control estadístico de procesos, suavizado, cálculos de potencia / tamaño de muestra y otros análisis estadísticos. También proporciona acceso a más de 50 subprogramas en los que puede ingresar datos, calcular estadísticas, crear tablas y gráficos e imprimir los resultados. La versión gratuita "Invitado" admite hasta 100 filas y 10 columnas de datos. Para conjuntos de datos más grandes, se puede comprar una copia para un solo usuario o una licencia de implementación corporativa. Para utilizar la versión de invitado, haga clic aquí. - OpenEpi es una serie de programas gratuitos, basados ​​en la web, de código abierto e independientes del sistema operativo para su uso en la salud pública y la medicina, que proporciona una serie de herramientas epidemiológicas y estadísticas. La versión 2 (25/4/2007) tiene una nueva interfaz que presenta resultados sin usar ventanas emergentes y tiene mejores métodos de instalación para que se pueda ejecutar sin conexión a Internet. La versión 2.2 (09/11/2007) permite a los usuarios ejecutar el software en inglés, francés, español o italiano.
  • SOCR - Recurso computacional en línea de estadísticas. Una colección muy completa de calculadoras en línea y otros recursos interactivos, que incluyen: Distribuciones (gráficas y calculadoras interactivas), Experimentos (análogos virtuales generados por computadora de juegos y procesos populares), Análisis (colección de herramientas comunes accesibles en la web para el análisis de datos estadísticos) , Juegos (interfaces y simulaciones para procesos de la vida real), Modelador (herramientas para la distribución, ajuste y simulación de modelos polinomiales y espectrales), Gráficos, Diagramas y Gráficos (herramientas integrales basadas en la web para análisis de datos exploratorios), Herramientas adicionales (otras herramientas y recursos estadísticos), Wiki SOCR (recurso Wiki colaborativo), Materiales educativos y actividades prácticas (variedades de materiales educativos SOCR), Bibliotecas de consultoría estadística y Computación estadística de la SOCR. - un sitio web muy bueno (¡gracias Alijah Ahmed!), con calculadoras en línea para muchas de las funciones de probabilidad estadística y pruebas de significancia comunes, y páginas que explican los conceptos y fórmulas detrás de las pruebas. Las páginas de cálculo proporcionan opciones de entrada flexibles (escriba los números o léalos de un archivo de texto) y una salida de resultados bien organizada, con interpretaciones y visualizaciones gráficas.
  • MedCalc: dos sitios web diferentes:
      - una colección de siete páginas web de cálculo gratuitas: pruebas para una media o una proporción, comparaciones de medias o proporciones, riesgo relativo, razón de probabilidades y evaluación de pruebas de diagnóstico. - un sistema estadístico de pago por navegador (prueba gratuita de 5 días disponible) que proporciona una amplia gama de análisis estadísticos (haga clic aquí para ver la lista).
  • Calculadoras, trazadores, integradores de funciones y entornos de programación interactiva. [volver al índice]

    • Evaluadores de expresiones: escriba cualquier expresión numérica que la computadora evaluará y mostrará los resultados.
      • Had2Know: calculadoras para matemáticas, estadísticas, finanzas, remodelación de hogares y jardines, ciencia, tecnología, salud y mucho más.
      • GIGAcalculator.com: varias herramientas estadísticas agradables, cada una acompañada de una descripción detallada de las matemáticas y los supuestos subyacentes, junto con fórmulas relevantes.
      • Stats Solver: un conjunto diverso de útiles calculadoras de estadísticas en línea. Informativo. Paso a paso.
      • UnitConverter: elegante y sencillo, pero incluye cookies y publicidad.
      • Calculadora científica: evaluador de expresiones numéricas. - Calculadora limpia y sencilla. Servirá como una alternativa básica para herramientas pagas como Minitab. - Calcular una serie de propiedades estadísticas de un conjunto de datos (media, mediana, media armónica, media geométrica, mínimo, máximo, rango, varianza, desviación estándar): le indica de dónde procede un número. Por ejemplo, si escribe 1.55838744, este programa le dirá que en realidad es la raíz cuadrada de 17/7.
      • Calculadora de porcentaje: nueva con más funciones y precisión y ayuda mejoradas.
      • Una calculadora simple de 5 funciones con memoria (se requiere Adobe Flash Player). - cuatro calculadoras estadísticas: resumen de cinco números, ANOVA y Tukey HSD, Chi-cuadrado y probabilidad binomial. Son extremadamente fáciles de usar, con ejemplos intuitivos incluidos. Más por venir. - 5 calculadoras estadísticas en línea (prueba de correlación, análisis de supervivencia, riesgo de propiedad de Cox, ANOVA de una y dos vías y ANOVA a partir de datos resumidos, regresión logística). - La calculadora de margen de error se puede utilizar para calcular el MOE de una encuesta de acuerdo con la proporción y el tamaño de la muestra, y el nivel de confianza deseado.
      • CoCalc: una calculadora científica RPN avanzada de CoHort Software. Tiene funciones log, trigonométricas, booleanas, binarias / hexadecimales y estadísticas básicas. Implementado como un subprograma de Java, por lo que puede ejecutarse desde la Web o almacenarse en su computadora para ejecutarse "sin conexión" cuando no está conectado a la Web. También disponible en una versión de fuente más grande.
      • Enlaces a otras calculadoras en línea y recursos relacionados con la calculadora, desde Enlaces esenciales (el.com).
        - Le permite acercar y alejar para ver cualquier parte del gráfico. (Necesita Java). Produce un pequeño diagrama en 3D de casi cualquier función o relación que se encuentre en las matemáticas de la escuela secundaria y la universidad. Grafica funciones de la forma y = f (x), como y = x2 o y = 3x + 1, o relaciones de la forma f (x, y) = g (x, y), como x2 + y2 = 4 . (pero se necesita Flash Player) Ingrese una función lineal de dos variables a minimizar, y cualquier número de expresiones de desigualdad lineal, y la página lo resolverá instantáneamente y mostrará un gráfico que muestra la región factible y las restricciones. - Similar al gráfico de programación lineal, pero funciona con funciones de más de dos variables y no grafica los resultados.
      • Integrales indefinidas - usando el Mathematica motor
        - una interfaz web interactiva para el lenguaje de programación estadística "R" (similar a S o S-plus) - - un intérprete de álgebra matricial y un optimizador numérico para la exploración de álgebra matricial. Muchas funciones de ajuste integradas para el modelado de ecuaciones estructurales y otros modelados estadísticos. Tiene funciones de ajuste como las de LISREL, LISCOMP, EQS y CALIS, junto con facilidades para la estimación de máxima verosimilitud de parámetros a partir de estructuras de datos faltantes, bajo la teoría normal. Los usuarios pueden especificar fácilmente modelos complejos 'no estándar', definir sus propias funciones de ajuste y realizar la optimización sujeta a restricciones de límites o igualdad lineales y no lineales. - una lista de calculadoras en línea / descargables gratuitas.

      Funciones de distribución de probabilidad: tablas, gráficos, generadores de números aleatorios. [volver al índice]

      • Integrales de probabilidad: estas páginas sustituyen a un manual de funciones estadísticas. Están organizados con las páginas multifunción más completas primero.
        • Estas páginas contienen cálculos para una amplia variedad de funciones de distribución de probabilidad., incluyendo Normal, Normal bivariante, t de Student, Chi-cuadrado, F de Fisher, Normal bivariante, t de Student no central, Chi-cuadrado no central, F de Fisher no central, Poisson, Log-normal, Exponencial, Beta, Gamma, Logística , Binomial, Binomial negativo, Multinomial, Cauchy, Gumbel, Laplace, Pareto, Weibull, Uniforme (continuo y discreto), Triangular, Geométrico e Hipergeométrico:
          • Página de Xuru para calcular PDF, CDF y sus complementarios e inversos, junto con los valores esperados, la media, la varianza, la asimetría y la curtosis amp, para binomio, geométrico, binomio negativo, Poisson, hipergeométrico, normal, chi-cuadrado, t de Student y F de Fisher distribuciones.
          • Calculadoras de distribución / densidad, trazadores y generadores de números aleatorios
          • Página interactiva muy sofisticada para más de 65 funciones de distribución estadística continuas y discretas: seleccione una función de un menú y le mostrará un gráfico de esa función junto con sus propiedades. Puede hacer clic en el gráfico para seleccionar límites, y le mostrará las integrales izquierda, media y derecha.
          • Probabilidades normales, t, chi-cuadrado y binomiales (densidad y acumuladas) Utilice p. Ej. dnorm, qnorm, rnorm.)
          • Áreas central y de cola para distribuciones Normal, Student, F, Chi-Cuadrado, Binomial y Poisson
          • Funciones de distribución de probabilidad estadística: Normal, t de Student, Chi-cuadrado, Fisher F - Binomial, Chi-cuadrado, Exponencial, F de Fisher, K-S: distribuciones de dos muestras, Poisson, normal, t de Student y uniforme. de z, t, F, r o Chi Cuadrado o haga lo contrario. : ingrese el valor p (y, si es necesario, los tamaños de muestra y / o d.f.) el programa calculará z, t, F, Chi Cuadrado y el coeficiente de correlación
          • Áreas de distribución normal, con buenas interpretaciones gráficas.
          • Otra calculadora de distribución normal muy buena, con buenos gráficos
          • Una página muy atractiva para la distribución normal (e inversa), con explicaciones detalladas (integral de menos infinito a z)
          • Probabilidades de chi-cuadrado, y viceversa, con una explicación detallada (valor t de valor p)
          • Otra calculadora del valor p de la distribución F de Fisher. , dado el nivel alfa, el numerador y denominador d.f. (por la aproximación de la raíz cuadrada de Laubscher), dado el valor F, el numerador y el denominador d.f., y el parámetro de no centralidad. probabilidades de distribución
          • Probabilidades para distribuciones Gamma, Beta completa y Beta incompleta
            - genera cualquier número de números enteros aleatorios, distribuidos uniformemente entre dos límites cualesquiera de números enteros aleatorios de cualquier rango especificado, o valores aleatorios de una distribución normal con cualquier media y desviación estándar especificadas. - genera cualquier número de números aleatorios, cada uno una fracción entre 0 y 1 con 8 dígitos después del punto decimal - puede elegir aleatoriamente un grupo para cada materia, o mezclar aleatoriamente materias dentro de grupos.
        • Research Randomizer: genera uno o más conjuntos de números aleatorios de un rango específico, con o sin repeticiones, ordenados o sin clasificar.
        • Block Randomizer: asigna sujetos aleatoriamente a diferentes grupos, con bloqueos múltiples para garantizar que los desequilibrios se mantengan bajo control si el estudio se termina prematuramente: tres variaciones:
          1. genera M grupos de N números cada uno al distribuir los números de 1 a M * N al azar en los M grupos
          2. genera M bloques de N números cada uno al mezclar aleatoriamente los números del 1 al N en cada bloque
          3. genera un subconjunto de N números mediante selección aleatoria de una lista de números del 1 al M
          • Permutaciones y sus restricciones
          • Subconjuntos o combinaciones
          • Permutaciones o combinaciones de un multiset
          • Establecer particiones
          • Particiones numéricas y parientes
          • Árboles binarios, enraizados, libres y otros
          • Collares, palabras de Lyndon, secuencias de DeBruijn
          • Polinomios irreducibles y primitivos sobre GF (2)
          • Ideales o extensiones lineales de un Poset
          • Árboles de expansión y otros subgrafos de un gráfico
          • Gráficos sin etiquetar
          • Rompecabezas Pentomino, Polyominoes, n-Queens
          • y otros rompecabezas y Miscelánea

          Estadística descriptiva, histogramas, gráficos. [volver al índice]

            - una página bellamente implementada para calcular y mostrar una gran cantidad de estadísticas descriptivas de un conjunto de números que ingresa (código Java)
      • Página de Xuru para estadísticas descriptivas de una sola variable: media, mediana, sd, varianza, desviación media de abs, media geométrica y sd, asimetría, curtosis, cuartiles, errores estándar, prueba de normalidad de Anderson-Darling y algunos intervalos de confianza de la media y la sd. Puede copiar y pegar datos directamente desde una hoja de cálculo o un archivo de datos tabulados, o ingresar números manualmente. - Ingrese hasta 80 números, esta página calculará la media, la varianza, la DE, el CV, la asimetría y la curtosis. . Puede ingresar o pegar datos sin procesar, o ingresar la media, SD o SEM y N para obtener CI. - Ingrese hasta 80 valores calculados en la página: N, media, varianza, SD, CV, asimetría, curtosis, SEM, mediana, mínima, máxima, rango, primer y tercer cuartiles, rango intercuartílico, desviación de cuartiles, coeficiente de cuartil var y desviación absoluta. - Dado un conjunto de valores observados y pronosticados, esta página calcula la DE de los errores, el error medio absoluto y relativo y la estadística de Durbin-Watson. - de hasta 80 valores.
      • Rweb: resumen descriptivo tabular y gráfico extenso: media, cuartiles, histogramas, matrices de diagramas de dispersión (con suavizadores), diagramas QQ (normales y por pares), series de tiempo, diagramas de caja. (Cuando llegas al Rweb página, desplácese hacia abajo hasta la Menú de análisis y seleccione Resumen.) proporciona estadísticas descriptivas, histogramas, diagramas de caja y diagramas de dispersión
      • Una variedad de estadísticas descriptivas y una visualización de tallo y hoja.
      • Detectar valores atípicos: esta calculadora realiza la prueba de Grubbs, también llamada método ESD (desviación estudiantil extrema), para determinar si uno de los valores en la lista que ingresa es un valor atípico significativo del resto. También contiene un excelente discusión sobre qué hacer con los valores atípicos. - calcular la media y la DE de una combinación de grupos a partir de la N, la media y la DE de cada grupo. (media, suma de cuadrados, varianza, desviación estándar, mínimo, percentil 25, mediana, percentil 75 y máximo para hasta 500 números, de hasta 42 conjuntos de [valor, frecuencia]. - Ingrese hasta 12 valores y sus probabilidades correspondientes, y esta página calculará el valor esperado, la varianza, la desviación estándar y el coeficiente de variación del amperio: ingrese hasta 28 conjuntos de datos emparejados de muestra, y esta página calculará las medias, las varianzas y la covarianza: ingrese hacia arriba a 80 números, y esta página mostrará un histograma., le permite alterar dinámicamente el ancho del intervalo y ver el efecto de inmediato - Dado un conjunto de números, esta página aísla iterativamente los valores atípicos potenciales para su eliminación. - es un recurso gratuito para cualquier persona que necesita herramientas estadísticas básicas.
      • Intervalos de confianza, pruebas de población única, errores de medición. [volver al índice]

        • Intervalos de confianza .
          • C.I. exactos para Binomial (proporción observada) y Poisson (recuento observado). (También disponible como hoja de cálculo de Excel y como complemento de Excel).
          • C.I. exactos y "modificados de Wald" para la proporción o recuento observado, con una buena explicación
          • Intervalos bayesianos "creíbles" alrededor de una proporción observada. Algo comparable a los intervalos de confianza "clásicos", pero tienden a ser un poco más estrechos.
          • 95% o 99% C.I. para proporciones para cualquier tamaño de muestra y tamaño de población especificados, suponiendo que los datos se muestrean a partir de una distribución normal, calcula los intervalos de confianza binomiales exactos y las pruebas de hipótesis para la proporción de población, a partir de poblaciones infinitas o finitas.
          • Intervalos de tolerancia para la distribución normal. (No confundas tolerancia intervalos con confianza intervalos!) A intervalo de tolerancia para una cantidad medida es el intervalo en el que existe una probabilidad especificada de que fracción de los valores de la población mentir. Esta página calculará los intervalos de tolerancia de un lado y dos lados para cualquier fracción de población especificada, y para cualquier nivel de confianza especificado, a partir de la desviación estándar y media de una muestra finita, bajo el supuesto de que la población está distribuida normalmente. Estos cálculos también están disponibles en una hoja de cálculo Excel descargable: tolintvl.xls.
            - probar una proporción observada contra una proporción de población propuesta - ingresar o pegar datos brutos, o ingresar la media, SD o SEM, y N
        • Prueba t de Student para una muestra para la media frente a un valor especificado, para hasta 80 observaciones y una media poblacional postulada.
        • Otra prueba t de Student de una sola media (frente a un valor especificado) de N, media, SD: ingrese un conjunto de números (generalmente una combinación de números positivos y negativos), y el programa aplicará una prueba no paramétrica (originalmente creado por RA Fisher) de si los números son consistentes con una distribución de frecuencia de población que es simétrica alrededor de cero (pero no necesariamente tiene que ser normal). Es una prueba frecuentista trabajar el experimento de Darwin con pares emparejados y experimentos similares.
        • Pruebe si la media es mayor que algún valor especificado. Esta prueba inusual es bayesiana y frecuentista al mismo tiempo. La hipótesis nula afirma algún valor para la media de una población de números positivos, la hipótesis alternativa dice que la media es mayor que eso. Esta prueba da una razón de verosimilitud bayesiana que también es un límite superior en el valor p de la prueba frecuentista. , basado en la distribución de Poisson también incluye intervalos de confianza y análisis de tasas de razón (como Tasa de mortalidad estandarizada, Tasa de morbilidad y Figura comparativa de mortalidad)
        • Similar al anterior, pero usado para estudiar la distribución de accidentes y eventos a nivel individual, usando el método de Liddell (también contiene una serie de aproximaciones comunes, para comparación), basado en la distribución Binomial - si el número de "éxitos" difiere de lo que se esperaba en función del número de ensayos y la probabilidad de éxito.
        • Similar a lo anterior, pero se ocupa de la probabilidad de un tamaño de muestra particular, dado un número 'x' observado positivo (o blanco, o accidentes automovilísticos) frente a una proporción 'U' esperada positiva: prueba si hasta 14 recuentos de eventos observados (cada uno durante la misma cantidad de tiempo) son consistentes con una sola tasa de eventos esperados. - Ingrese hasta 80 números, y esta página calculará una prueba de corridas para ver si los números forman una secuencia aleatoria, de hasta 80 observaciones contra una varianza de población postulada.
        • Analice las proporciones observadas en muestras de poblaciones finitas, según la distribución hipergeométrica: ingrese hasta 80 números, y esta página probará la normalidad según la estadística de Jarque-Bera: ingrese el formulario de 25 a 84 valores La página proporciona información para probar si el histograma es unimodal. - ingrese números en la página o léalos desde un archivo de texto. Realiza prueba de normalidad, también muestra un histograma de los datos. Para obtener una descripción de la prueba, junto con las fórmulas y la programación, haga clic aquí. - Ingrese hasta 42 conjuntos de [valor, frecuencia] La página calculará la asimetría, la curtosis y la prueba de Liliefors para verificar la coherencia con una distribución normal. - Ingrese hasta 42 conjuntos de [valor, frecuencia] La página calculará la prueba de Kolmogorov-Smirnov para verificar la coherencia con una distribución uniforme. - Ingrese hasta 14 conjuntos de [valor, frecuencia] La página calculará una prueba de Chi cuadrado para verificar la coherencia con una distribución de Poisson. - prueba si un conjunto de valores observados es consistente con una distribución exponencial.
          • - toma valores observados y valores esperados que se pueden especificar como ocurrencias esperadas, o porcentajes o fracciones del total. Los datos se pueden escribir o copiar y pegar. - Prueba de chi cuadrado para hasta 14 conjuntos de frecuencias [observadas, esperadas].
          • Calcular cómo se propaga el error estándar de una o dos variables a través de cualquier función de esas variables.
          • Calcule los intervalos de confianza de una suma, diferencia, cociente o producto de dos medias, asumiendo que ambos grupos siguen una distribución gaussiana.

          Comparaciones de muestras: pruebas t, ANOVA, comparaciones no paramétricas. [volver al índice]

          • Prueba t de Student (para comparar dos muestras).
            • una página web muy general de la prueba t de Student: emparejada o no, varianza igual o desigual, a partir de observaciones individuales (que se pueden ingresar con clave o copiar / pegar) o datos resumidos (N, Media, SD o SEM). Incluye explicaciones y consejos sobre la realización de este tipo de pruebas.
            • una calculadora muy pulida para la prueba t de Student de dos grupos, con visualización gráfica de medias e intervalos de confianza, y una interpretación de los resultados. Puede tomar valores individuales o estadísticas de resumen (N, media, DE) para cada grupo. , emparejado o no emparejado
            • t-test, emparejado o no emparejado: ingrese datos en la página o léalos desde un archivo de texto. Esta página también produce histogramas de los datos (cada grupo y diferencias pareadas). Para obtener una descripción detallada de la prueba, con fórmulas y ejemplos, haga clic aquí. - hasta en 42 pares de valores, junto con una diferencia de medias poblacional postulada. - Prueba t de Student para datos no apareados para hasta 80 observaciones en cada muestra. También acepta una diferencia postulada entre las dos medias poblacionales, que puede ser diferente de 0.
            • Un programa de prueba t muy general para comparar cantidades medidas, recuentos observados y proporciones entre dos muestras no apareadas también produce razón de riesgo, razón de probabilidades, número necesario a tratar y análisis de población.
            • ANOVA unidireccional y factorial para muestras no correlacionadas (extensión de desemparejado Prueba t de Student para más de 2 grupos). - ANOVA de una vía para tres grupos, cada uno de los cuales contiene hasta 40 sujetos.
            • ANOVA unidireccional a partir de datos resumidos (N, media y SD o SEM): ¡ahora también realiza la prueba post-hoc de Tukey HSD!
            • ANOVA unidireccional a partir de datos resumidos (N, media y SD o SEM): como el anterior, pero permite
              • copiar / pegar datos
              • evaluar más de 10 grupos
              • incluye la prueba post-hoc de Tukey-Kramers
                - Ingrese tres conjuntos de medidas emparejadas (hasta 40 puntos cada una). La página calcula un ANOVA de medidas repetidas.
              • una calculadora muy pulida para comparar dos tasas de eventos (número de eventos en una determinada cantidad de tiempo). Muestra los intervalos de confianza en torno a la tasa de cada evento e interpreta la importancia de la diferencia entre las tasas de los dos grupos.
                - Cada par de observaciones se compara y califica cualitativamente como "prefiriendo A" o "prefiriendo B" - Cada par de números se resta para obtener una diferencia
          • Tablas de contingencia, tabulaciones cruzadas, pruebas de chi-cuadrado. [volver al índice]

            • Pruebas de chi-cuadrado.
                - Entrada manual (delimitada por tabuladores o comas) o copiar / pegar datos de Excel directamente. Calcula los valores de celda esperados, chi-cuadrado y valor P para cualquier tabla de contingencia 2D. (Chi-cuadrado, prueba exacta de Fisher, sensibilidad, razón de posibilidades, riesgo relativo, diferencia de proporciones, número necesario a tratar, etc.) con intervalos de confianza. - similar al anterior, pero con un diseño de pantalla más claro. , por Fisher Exact, y por Chi Cuadrado (con y sin corrección de Yates), con una buena explicación (Chi Cuadrado, Exacto de Fisher, diferencia de proporciones, razón de riesgo, razón de probabilidades, theta, log-razón de probabilidades, prueba de Poisson) - - a partir de una tabla cruzada de 2x2 de los resultados de las pruebas de diagnóstico (positivos o negativos) frente al estado real de la enfermedad (presente o ausente), calcula la sensibilidad, la especificidad, las razones de probabilidad positiva y negativa y los valores predictivos, y la prevalencia de la enfermedad, junto con su 95% intervalos de confianza. como vivido / muerto, presente / ausente, sí / no. Esto puede probar una tendencia en la probabilidad de un evento cuando tiene recuentos de las dos categorías en un conjunto de intervalos de tiempo. - para una tabulación cruzada de hasta 6 por 6. , con Chi-cuadrado de Pearson, Chi-cuadrado de razón de probabilidad, Chi-cuadrado de Yates, Chi-cuadrado de Mantel Haenszel, Razón de probabilidades, Razón de probabilidades logarítmica, Yules-Q, Yules-Y, Phi-cuadrado, correlación de Pearson y prueba de McNemar - - para probar si la proporción de sujetos que tienen alguna característica es la misma en dos grupos emparejados o en un grupo antes y después de alguna intervención. (También puede probarse contra una hipótesis nula que especifique alguna diferencia distinta de cero).
            • Consulte también la calculadora de Medicina basada en evidencia (MBE) en la sección "Calculadoras bioestadísticas" de la sección "Otras pruebas y análisis estadísticos" de esta página.
              • (2x2), con una buena discusión sobre la ayuda (2x5) (2x2)
                - evalúa qué tan bien dos o más los observadores, o los métodos, clasifican los objetos / sujetos en grupos. - evalúa qué tan bien dos observadores, o dos métodos, clasifican a los sujetos en grupos. Para una mesa de hasta 12 por 12.
              • Calculadora Kappa en línea: calcula las variaciones marginales libres y marginales fijas de Kappas birater y multifactorial (medidas ajustadas al azar del acuerdo entre evaluadores). para comparar la forma en que dos evaluadores puntuaron cada uno de una serie de elementos, utilizando la entrada de datos caso por caso
              • Otro Kappa de Cohen, usando datos ya tabulados
              • Kappa para datos nominales como concordancia entre varios evaluadores: cada uno de varios evaluadores coloca a cada una de varias entidades en una de varias categorías
              • Correlación intraclase para la concordancia entre varios evaluadores, utilizando una matriz de datos que indica cómo cada evaluador calificó cada caso.
                - toma valores observados y valores esperados que se pueden especificar como ocurrencias esperadas, o porcentajes o fracciones del total. Los datos se pueden escribir o copiar y pegar.

              Regresión, correlación, ajuste de curvas de mínimos cuadrados, correlación no paramétrica. [volver al índice]

              • Líneas rectas y coeficientes de correlación.
                  . (bonita interfaz)
              • Regresión lineal para copiar / pegar datos desde una hoja de cálculo o un archivo tabular. - ingrese X e Y en la página web, o léalos desde un archivo de texto. Produce coeficientes de regresión, coeficiente de determinación y otras cantidades, junto con un gráfico de los puntos de datos observados y la línea ajustada. Para obtener una descripción de los conceptos de regresión lineal, haga clic aquí.
              • Varias variaciones en la regresión lineal de 2 parámetros (regresión logarítmica, regresión exponencial y regresión de potencia), hasta 84 puntos, con análisis de residuos y resultados extensos. proporciona estadísticas descriptivas, histogramas, diagramas de caja y diagramas de dispersión, hasta 84 puntos. - calcula medias, varianzas y covarianzas de hasta 42 [x, y] mediciones. (un subprograma integrado (Java)) puede realizar análisis de regresión simple
                • Correlación de rango de Spearman (no paramétrico).
                • Correlación de Spearman a partir de datos de tablas cruzadas con categorías de filas y columnas secuenciadas
                • Escriba, copie / pegue (Excel u otra hoja de cálculo) o cargue datos desde un archivo csv.
                • La primera fila puede incluir nombres de columnas. Especifique qué columnas probar para la correlación.
                • Opcional especificar: nivel de confianza, corrección de continuidad, valor p exacto e hipótesis alternativa.
                • Ajustador de curvas de mínimos cuadrados no lineales muy general - casi cualquier función que pueda escribir - hasta 8 parámetros no lineales, hasta 10 variables independientes.
                • Realiza una regresión de mínimos cuadrados no lineal como se indicó anteriormente, pero manejará más de 8 parámetros e incluye la opción de trazado. - una página de ajuste de curvas fácil de usar. Ofrece 13 funciones predefinidas (no se requieren estimaciones iniciales), junto con la capacidad de adaptarse a una función no lineal general que proporcione (junto con las estimaciones iniciales). Muestra los resultados gráficamente, junto con la fórmula de la curva ajustada. Se proporcionan varios tipos de ponderación desigual de puntos de datos. Le permite generar valores predichos (interpolados y extrapolados) a partir de la curva ajustada. Le permite guardar resultados en formatos Excel y PDF.
                • Ajustador de curvas de mínimos cuadrados no lineales ZunZun: con una enorme lista de funciones predefinidas en 2-D y 3-D, y una amplia producción gráfica y estadística. - ¡con salida gráfica! Elija una de las 15 funciones no lineales predefinidas de una variable y hasta tres parámetros.
                • Regresión 3-D y gráfico interactivo (de MiaBella LLC): una poderosa página web que se ajusta a una función lineal de dos variables predictoras (Z = a + b * X + c * Y) y muestra un gráfico de dispersión 3D muy elegante de El puntos y el plano ajustado. Puede rotar el gráfico en tres dimensiones con el mouse y puede ver los valores X, Y y Z de cualquier punto (por ejemplo, un valor atípico) haciendo clic en el punto.
                • Regresión polinomial: ajuste polinomios de grado 2 a 10.
                • Regresión lineal múltiple: ajuste las funciones de más de una variable predictora.
                • Regresión polinomial múltiple: ajuste las funciones de uno o más predictores, cada uno expresado como polinomios, hasta el orden que especifique.
                • Regresión no lineal: se ajusta automáticamente a más de 100 de las funciones no lineales más comunes (gaussianas, sigmoidales, racionales, sinusoidales, etc.) y luego las clasifica según la bondad de ajuste.
                • Compare el ajuste de dos modelos con sus datos. ¿Qué modelo encaja mejor? Ingrese la bondad de ajuste (SSQ o SSQ ponderado) y el número de puntos de datos y el número de parámetros para cada modelo. La calculadora comparará los modelos usando el método de Akaike y luego la prueba F. (también llamadas "funciones Pade") para datos. Una función racional es una fracción cuyo numerador y denominador son polinomios en X. Pueden ajustarse a un rango más amplio de funciones que los polinomios solos; pueden ajustar datos donde el valor de Y se "nivela" a una línea horizontal para muy grandes o pequeña X, y puede ajustar funciones que tienen "singularidades" (Y se dispara al infinito con algún valor de x). Este ajustador de curvas es parte de un extenso conjunto de calculadoras en línea para resolver problemas en ingeniería estructural (flexión y pandeo de vigas y placas, etc.) en el sitio web Software for Structures.
                • Regresión univariante y múltiple, con muy resultados gráficos extensos (histogramas, diagramas de dispersión, matrices de diagramas de dispersión) y análisis de residuos (QQ, histograma, residuos frente a dependientes o predictores). Interfaz de apuntar y hacer clic muy intuitiva, personalizada dinámicamente para sus datos. (Cuando llegas al Rweb página, desplácese hacia abajo hasta la Menú de análisis y seleccione Regresión.) - hasta 16 puntos de datos y hasta 4 variables independientes calcula el modelo ajustado y una gran cantidad de estadísticas de análisis residual. - Se ajusta a una parábola de mínimos cuadrados hasta 84 puntos de datos y proporciona un análisis residual extenso.
                • Regresión múltiple, si ya tiene la matriz de coeficientes de correlación entre todas las variables independientes y dependientes.
                • Ajuste cualquiera de las cinco familias de curvas (lineal, polinomial, exponencial, exponencial descendente, gaussiana) y dibuje una gráfica, si la variable dependiente está restringida a dos valores (como si un evento ocurrió o no ocurrió) - extiende John C Página de Pezzullos (arriba) para manejar modelos de potencia y permitirle calcular la probabilidad predicha para patrones covariables específicos.
                • Análisis de regresión de supervivencia de riesgos proporcionales de Cox
                • Una versión más rápida del análisis de riesgos proporcionales de Cox
                • CoxReg, análisis avanzado de regresión de riesgos proporcionales de Cox: cuando tiene datos sobre el número de ocurrencias y no ocurrencias de algo en un conjunto de intervalos de tiempo. Comprueba si la probabilidad de que ocurra muestra una tendencia a lo largo del tiempo.
                • Test Bias Assessment Program, calcula estadísticas para ayudarlo a decidir si los puntajes de las pruebas predicen un criterio de manera diferente en los subgrupos.
                  - herramientas de identificación, estimación y previsión basadas en orden autorregresivo obtenido a partir de una serie temporal.
                • Detección de tendencia y autocorrelación en series de tiempo: dado un conjunto de números, esta página prueba la tendencia por prueba de signo y la autocorrelación por la prueba de Durbin-Watson. - genera un gráfico de una serie de tiempo con hasta 144 puntos. - Calcula un conjunto de valores de índice estacional a partir de un conjunto de valores que forman una serie de tiempo. Una página relacionada realiza una prueba de estacionalidad en los valores del índice. - Dado un conjunto de números que forman una serie de tiempo, esta página estima el siguiente número, utilizando Promedio móvil y suavizado exponencial amperio, Promedio móvil ponderado y Suavizado exponencial doble y triple. - en una serie de tiempo. - Dado un conjunto de números que forman una serie de tiempo, esta página calcula la media y la varianza de la primera y la segunda mitad, y calcula las autocorrelaciones de un retraso y dos retrasos. Una página relacionada: Time Series 'Statistics calcula estas estadísticas, y también la media general y la varianza, y la primera y la segunda autocorrelación parcial.

                Análisis de datos de supervivencia. [volver al índice]

                  - Escriba o copie / pegue datos, o léalos desde un archivo. Prepara tablas, gráficos (con intervalos de confianza del 95%) y resultados de comparación estadística. Puede acomodar dos o más grupos y puede realizar una prueba de rango logarítmico estratificado. Utiliza el motor estadístico R en el servidor ShinyApps para proporcionar resultados de muy alta calidad. Escrito por Soren Merser. - para uno o más grupos. Dibuja curvas K-M con bandas de confianza opcionales (tipo ordinario, logarítmico o logarítmico-logarítmico, en el nivel de conf. 50, 80, 90 o 95%). Esto es parte del sitio web EurekaStatistics de Peter Rosenmai (un blog sobre estadísticas y R). - calcula curvas de supervivencia (con bandas de confianza) y realiza una prueba de LogRank para comparar las curvas de supervivencia entre dos grupos.
                • Tabla de vida (Kaplan-Meier): ingrese el número de muertos y censurados en cada período de tiempo, y la página calcula la probabilidad de supervivencia acumulada y los intervalos de confianza del 95%. También grafica la curva de supervivencia y exporta los datos, para que pueda crear una mejor gráfica usando otro programa.
                • Análisis de regresión de supervivencia de riesgos proporcionales de Cox: especifique el tiempo y el estado de observación de cada sujeto (visto por última vez vivo o muerto) y cualquier número de variables independientes (predictores, factores de confusión y otras covariables). Esta página web realizará un análisis de regresión de riesgos proporcionales y devolverá los coeficientes de regresión, sus errores estándar, el índice de riesgo (riesgo) y sus intervalos de confianza, y la curva de supervivencia de línea de base, junto con información de bondad de ajuste. También puede utilizar una versión más rápida de Ronald Brand (Universidad de Leiden) o una versión mejorada de Kevin Sullivan (Universidad de Emory) que tiene ejemplos ilustrativos y material explicativo. - realiza la regresión de riesgos proporcionales de Cox. Puede copiar / pegar datos de Excel o cargar un archivo CSV. Produce un informe de tabla de regresión, un gráfico de supervivencia, una tabla de supervivencia, una prueba de rango logarítmico y un gráfico de supervivencia predicha para patrones covariables especificados. Utiliza el motor estadístico R en el servidor ShinyApps para proporcionar resultados de muy alta calidad. Escrito por Soren Merser. - Ingrese el número de eventos y el tiempo promedio hasta el evento para cada uno de los dos grupos. La calculadora mostrará el intervalo de confianza alrededor de cada tiempo medio y comparará los dos tiempos medios. (Supone una curva de supervivencia de forma exponencial).

                Métodos bayesianos. [volver al índice]

                  - permite evaluar la credibilidad de los resultados de un ensayo clínico a la luz de los conocimientos actuales. Esta página toma la razón de probabilidades y su intervalo de confianza de un ensayo clínico y utiliza un método bayesiano recientemente desarrollado para calcular una cantidad llamada razón de probabilidades crítica (COR). Si las proporciones de probabilidades al menos tan impresionante como lo indicado por el COR puede justificarse por el conocimiento existente, entonces los resultados del ensayo clínico pueden considerarse creíble.
                • Valor predictivo etiológico (EPV): un nuevo método estadístico desarrollado para determinar la probabilidad de que los síntomas sean causados ​​por un hallazgo bacteriológico, teniendo en cuenta a los portadores. Para calcular la EPV, se debe conocer el número de pruebas positivas y negativas entre pacientes y controles sanos, así como la sensibilidad de la prueba. Esto permite calcular la EPV positiva y negativa con un intervalo de confianza del 95%.
                • Prueba exacta de Bayes para la independencia en tablas de contingencia r por c: también puede manejar la comparación de situaciones observadas versus esperadas y observadas versus uniformes.
                • Análisis de datos de "1 grado de libertad": realiza pruebas interactivas frecuentistas y condicionales bayesianas para los datos de recuento que tienen un grado de libertad. Es decir, realiza distribuciones hipergeométricas, binomiales, de Poisson, Bessel y relacionadas (para dicotomías dobles, pruebas de signos, un tipo especial de diseño estructural cero, etc.). - toma probabilidades previas y probabilidades condicionales, y calcula probabilidades revisadas. (ideal para resolver ciertos tipos de acertijos) para tener en cuenta el contexto del experimento, expresado por la probabilidad previa de que su hipótesis sea cierta. - calcula las interrelaciones entre true pos, true neg, false pos, false neg, prevalencia, sensibilidad, especificidad, valores predictivos y razones de probabilidad (requiere JavaScript).
                • Diseño experimental secuencial para probar las razones de probabilidad
                • Análisis de tabla 2 por 2 (Chi-Cuadrado, sensibilidad, razón de posibilidades, riesgo relativo, etc. con intervalos de confianza - para diseñar un experimento secuencial en el que se toma una decisión después de cada observación o aceptar la hipótesis nula, aceptar la alternar hipótesis o adquirir más observaciones.

                Otras pruebas y análisis estadísticos. [volver al índice]

                  - Esta calculadora puede determinar las características de la prueba de diagnóstico (sensibilidad, especificidad, razones de probabilidad) y / o determinar la probabilidad de enfermedad posterior a la prueba dada la probabilidad previa a la prueba y las características de la prueba. Dados los tamaños de muestra, también se calculan los intervalos de confianza. - una herramienta de análisis de confiabilidad en línea que permite a los usuarios verificar la confiabilidad de los puntajes en su encuesta. La opción gratuita proporciona puntaje de confiabilidad, fuerza estadística de la encuesta, análisis general de elementos y un resumen estadístico de la encuesta. Los planes de pago también proporcionan un optimizador automático, comparación de optimización, optimizador manual y control del análisis de encuestas. - Realiza cálculos clásicos para colas de un solo servidor o de varios servidores (longitud de la cola, tiempo de espera, etc.).
                  - Realiza la inferencia de validación cruzada "dejar uno fuera" para: tendencia central, líneas de mínimos cuadrados, tablas multinomiales unidimensionales, tablas de contingencia bidimensionales con ceros estructurales, problemas de k-muestras y bloques y diseños de tratamiento. La página web está bien documentada, con una docena de ejemplos elaborados y explicados. - un foro en línea, en el que se puede presentar evidencia estadística que siempre es replicable, comprobable y ampliable con el "clic de un botón". El nombre Modelo más apto abarca tanto el objetivo como los medios de la ciencia, es decir, encontrar el modelo más adecuado mediante el ajuste, la prueba y el modelado. Los usuarios pueden discutir la evidencia estadística en línea o buscar resultados basados ​​en criterios de búsqueda como series de datos, métodos o criterios que miden la 'calidad' de los resultados. Los conjuntos de datos disponibles públicamente de diversas fuentes se pueden combinar en nueva evidencia estadística y se agregarán técnicas estadísticas de manera continua, a solicitud del usuario o de otra manera.
                • Ajuste de Bonferroni de los valores p críticos al realizar comparaciones múltiples (tiene una excelente discusión sobre este tema) (Ajuste de Bonferroni)
                • Número necesario a tratar, basado en una tabla de 2 por 2: esta calculadora realiza la prueba de Grubbs, también llamada método ESD (desviación estudiantil extrema), para determinar si uno de los valores en la lista que ingresa es un valor atípico significativo del resto.
                • Calcular y trazar una curva ROC (para datos de predictores agrupados) genera estructuras de árbol de agrupación de datos y mucho más
                • Valor predictivo de la sensibilidad, la especificidad y la prevalencia (al analizar una prueba clínica), con una bonita explicación: una interfaz de navegador para un programa que realiza:
                  • Análisis de coordenadas principales (PCO)
                  • análisis de co-inercia
                  • análisis discriminante y análisis dentro o entre clases
                  • análisis en matrices de distancia o gráficos vecinos.

                  Pruebas y análisis especializados y disciplinarios específicos. [volver al índice]

                  • Escritorio de referencia de Martindale - Calculadoras en línea - Estadísticas (el abuelo de todos los compendios de cálculo de páginas web)
                  • Calculadoras bioestadísticas:
                      - Del sitio web de Warren Goff con un nombre interesante. Analiza una o más tablas cuádruples (2x2) calcula Chi Cuadrado, CER, EER y RR, y los parámetros relacionados con el tratamiento (RRR, ARR, NNT, NNH, con intervalos de confianza del 95%), diagnóstico (Sensibilidad, Especificidad, VPP, VPN , Prevalencia, LR +, LR-, OR, Pre-Odds, Post-Prob) y Daño (RR, OR NNH). También puede comparar dos tablas diferentes. - a partir de una tabla cruzada de 2x2 de los resultados de las pruebas de diagnóstico (positivos o negativos) frente al estado real de la enfermedad (presente o ausente), calcula la sensibilidad, la especificidad, las razones de probabilidad positiva y negativa y los valores predictivos, y la prevalencia de la enfermedad, junto con sus 95 % intervalos de confianza. - Dada la información sobre la probabilidad de un resultado bajo control y tratamientos experimentales, esta calculadora produce medidas de aumento / disminución del riesgo y el número necesario a tratar o dañar, incluidos los intervalos de confianza. Si algunos pacientes se perdieron durante el seguimiento, la calculadora proporciona estimaciones para varios escenarios diferentes.
                  • Calcular ECcualquier cosa de la CE50 (asumiendo una relación dosis-respuesta estándar "tipo Hill"). Muy útil en estudios dosis-respuesta.
                  • Análisis exhaustivo de la tabla 2 por 2 relevante para las predicciones y las pruebas de diagnóstico: sensibilidad, especificidad, prevalencia, precisión del diagnóstico, VPP, probabilidades posteriores a la prueba, pruebas de razón de verosimilitud
                  • Cálculo de la probabilidad posterior a la prueba a partir de la razón de verosimilitud y la probabilidad previa a la prueba
                  • Conversión de sensibilidad y especificidad a razones de verosimilitud
                  • Calculadora para predecir la probabilidad de un resultado exitoso de la cirugía de disco lumbar (basada en un modelo logístico)
                  • LODS - Calculadora del sistema logístico de disfunción de órganos
                  • Sistemas de puntuación para UCI y pacientes quirúrgicos: cálculo en línea de las puntuaciones utilizadas en cuidados intensivos o anestesia general o especializada, que incluyen:
                    • Adultos, puntuaciones generales: SAPS II, APACHE II, SOFA, MODS, ODIN, MPM (al ingreso, 24 horas, 48 ​​horas, MPM a lo largo del tiempo), MPM II (al ingreso, 24-48-72 horas), LODS y TRIOS
                    • Cuidados intensivos quirúrgicos, especializados y para adultos: evaluación preoperatoria: EUROSCORE, ONTARIO, Parsonnet, System 97, QMMI, MPM, POSSUM y Portsmouth POSSUM
                    • Adultos, puntuaciones de trauma: ISS / RTS / TRISS y 24 h - ICU Trauma Score
                    • Adultos, intervención terapéutica, puntuaciones de la UCI de enfermería: TISS
                    • Pediatría, puntuaciones generales: PRISM, DORA, PELOD y PIM
                    • Pediátrico, especializado (neonatal, quirúrgico): CUNA, SNAP, SNAP-PE, SNAP II / SNAPPE II
                    • Puntuaciones pediátricas y de trauma: Puntuación de trauma pediátrico
                      - calcula las probabilidades posteriores para "agudizar" sus incertidumbres incorporando una matriz de confiabilidad de juicio experto con su vector de probabilidad anterior. Puede acomodar hasta nueve estados de la naturaleza. - Ingrese una matriz de pagos de hasta 6x6 de alternativas de decisión (elecciones) por estados de la naturaleza, junto con un coeficiente de optimismo, la página calculará Acción y recompensa por pesimismo, optimismo, mitad del camino, minimizar el arrepentimiento, y Razón Insuficiente. - Toma dos valores monetarios y su utilidad conocida, y calcula la utilidad de otra cantidad, bajo dos estrategias diferentes: cierta e incierta. - Ingrese una matriz de pago de hasta 6x6 de alternativas de decisión (elecciones) por estados de la naturaleza, junto con estimaciones subjetivas de probabilidad de ocurrencia para cada estado de la naturaleza, la página calculará la acción y el pago (esperado y para el evento más probable), Mínimo arrepentimiento esperado, devolución de información perfecta, valor de la información perfecta y eficiencia. - para hasta 36 probabilidades y resultados asociados, calcula el valor esperado, la varianza, la DE y el CV. - combinar subjetividad y estimaciones basadas en evidencia. Toma hasta 14 pares de medias y varianzas calcula estimaciones combinadas de media, varianza y CV. - (precisión relativa como herramienta de medición para la evaluación de la inexactitud entre estimaciones), prueba la afirmación de que al menos una estimación se aleja del parámetro en más de r veces (es decir, una precisión relativa), donde r es un número positivo subjetivo menos de una. Toma hasta 10 estimaciones de muestra y una precisión relativa subjetiva (r & lt1) la página indica si al menos una medición es inaceptable. - Toma la medida de ganancias / pérdidas de varias conclusiones correctas o incorrectas con respecto a la hipótesis, junto con las probabilidades de errores de Tipo I y II (alfa y amp beta), el costo total del muestreo y la estimación subjetiva de la probabilidad de que la hipótesis nula sea verdadera devuelve el resultado esperado. beneficio neto.
                  • Cálculos de potencia, tamaño de muestra y diseño experimental. [volver al índice]

                    Visite el sitio web PowerAndSampleSize.com, que contiene (en el último recuento) 19 calculadoras interactivas de potencia o tamaño de muestra requerido para muchos tipos diferentes de pruebas estadísticas: probar 1 media, comparar 2 o más medias, probar 1 proporción, comparar 2 o más proporciones, pruebas de odds ratios y dos pruebas de 1 muestra (normal y binomial). Este sitio también proporciona calculadoras para estudios de no inferioridad y equivalencia. Las páginas web muestran gráficos que muestran dinámicamente cómo varía la potencia con varios parámetros de diseño a medida que cambia otros parámetros.

                    Además, mire la muy general y elegante calculadora de potencia / tamaño de muestra de Russel Lenth (U de Iowa). Maneja pruebas de medias (una o dos muestras), pruebas de proporciones (una o dos muestras), regresión lineal, pruebas genéricas de chi-cuadrado y Poisson, y una asombrosa variedad de ANOVA: 1, 2 y 3. way Cuadrados latinos y grecolatinos de bloques completos aleatorizados Diseños anidados factoriales y de 1 etapa, 2 etapas y gráficos de tiras de parcela dividida cruzada y mucho más! Esta calculadora está implementada en Java y se puede ejecutar como una página web, o se puede descargar a su computadora para funcionar sin conexión como una aplicación independiente.

                    Aquí hay una colección de páginas web de calculadoras de energía en línea para tipos específicos de pruebas:


                    Introducción

                    El cáncer de ovario (OC) es uno de los tumores malignos más letales en las mujeres, con 295,414 nuevos casos y 184,799 muertes en 2018 (1). Aunque se han logrado avances considerables en las técnicas diagnósticas y terapéuticas, la tasa de supervivencia a 5 años de los pacientes con AO avanzado sigue siendo escasa (2). La identificación temprana de pacientes con alto riesgo de mortalidad y tratamientos individualizados más precisos ayudarán a mejorar el pronóstico de los pacientes con AO. Con respecto a la medicina de precisión, sería significativo el desarrollo de modelos predictivos para proporcionar una predicción temprana e individualizada del riesgo de mortalidad y predecir la efectividad de esquemas terapéuticos específicos.

                    Un progreso considerable en bioinformática ayuda a los científicos a explorar los mecanismos reguladores intrínsecos de la tumorigénesis y la progresión (3 & # x020136). El microambiente inmunológico juega un papel importante en la iniciación y desarrollo de tumores (7, 8). Varios estudios han informado del valor clínico de la inmunoterapia para el cáncer de ovario (5, 6). Varios estudios establecieron modelos pronósticos para predecir el pronóstico de los pacientes con AO (7, 8). Sin embargo, con respecto a la medicina de precisión, la predicción del riesgo de mortalidad para los subgrupos de alto y bajo riesgo no pudo satisfacer las necesidades del tratamiento individualizado. El tratamiento individualizado necesita modelos de pronóstico precisos para proporcionar una predicción del riesgo de mortalidad individual para un agente específico, pero no para un subgrupo especial.

                    Nuestro equipo construyó dos herramientas predictivas de medicina de precisión que predicen el riesgo de mortalidad individualizado por carcinoma hepatocelular (9, 10). Estas dos herramientas predictivas de medicina de precisión brindan una predicción del riesgo de mortalidad en línea que es conveniente y fácil de entender. Más importante aún, estas herramientas de predicción de la medicina de precisión proporcionan predicción del riesgo de mortalidad individual y específico, que es importante para la toma de decisiones de tratamiento individualizado. Recientemente, se ha utilizado inteligencia artificial basada en big data y algoritmos avanzados para mejorar la precisión de los modelos predictivos para el diagnóstico y pronóstico en varios tumores (11 & # x0201313). Por lo tanto, el estudio actual tuvo como objetivo construir herramientas predictivas de inteligencia artificial para predecir el riesgo de mortalidad individualizado para los pacientes con OC basándose en genes inmunes.


                    Crear una canalización de integración de datos

                    El objetivo de nuestras tareas de integración de datos era vincular predictores de diferentes fuentes de datos para generar un único conjunto de datos agrupado para el análisis de supervivencia al cáncer. Por lo tanto, creamos una canalización de integración de datos utilizando la interfaz de programación de aplicaciones (API) Ontop OWL Java [58] para traducir las solicitudes de los usuarios en consultas SPARQL y organizar los resultados de las consultas en un formato analítico. La API OWL [59] es una implementación de referencia para interactuar con ontologías OWL. La API Ontop OWL extendió la interfaz OWLReasoner en la API OWL para admitir la respuesta de consultas SPARQL contra bases de datos relacionales. Como lo requieren nuestros modelos de análisis de datos, los resultados finales se organizaron en una tabla de datos (es decir, una matriz), donde cada fila representaba el registro de diagnóstico de cáncer de un paciente (ya que un paciente puede tener múltiples diagnósticos de cáncer en los datos de FCDS), y cada columna representaba un factor de riesgo de cáncer.


                    Conclusión

                    En general, nuestra base de datos CellAge es la primera base de datos completa de senescencia celular, que será un recurso importante para que los investigadores comprendan el papel de la senescencia en el envejecimiento y las enfermedades. Además, encontramos que los genes del CS se conservan en los vertebrados pero no en los invertebrados y que los genes relacionados con el CS tienden a no ser específicos de tejido. Observamos que los genes que inducen el CS tienden a la regulación positiva con la edad en la mayoría de los tejidos humanos, y estos genes están sobrerrepresentados tanto en conjuntos de datos de genes anti-longevidad como supresores de tumores, mientras que los genes que inhiben la senescencia no se sobreexpresan con la edad y están sobrerrepresentados en pro-longevidad y conjuntos de datos de oncogenes. Los genes CS también estaban sobrerrepresentados en genes relacionados con enfermedades relacionadas con el envejecimiento, principalmente en neoplasias.

                    Utilizando la biología de redes, implicamos a los genes CellAge en varios procesos, en particular la división celular y los procesos del sistema inmunológico. Usamos la topología de la red para identificar posibles reguladores de CS y cuellos de botella que podrían afectar varios procesos posteriores si se desregularan. De hecho, identificamos 11 genes que ya se ha demostrado que contribuyen a la CS, que se agregarán a futuras versiones de CellAge. Finalmente, verificamos experimentalmente 26 genes que inducen morfología o biomarcadores de CS cuando se derriban en fibroblastos mamarios humanos. De estos, 13 genes (C9orf40, CDC25A, CDCA4, CKAP2, GTF3C4, HAUS4, IMMT, MCM7, MTHFD2, MYBL2, NEK2, NIPA2, y TCEB3) fueron fuertes éxitos en la inducción de un fenotipo senescente.

                    La senescencia celular es uno de los sellos distintivos del envejecimiento [87] y la acumulación de células senescentes en los tejidos humanos con la edad se ha implicado como un factor determinante de las enfermedades relacionadas con el envejecimiento. De hecho, los enfoques farmacológicos dirigidos a las células senescentes, como los senolíticos, son un área de investigación importante y oportuna que podría dar lugar a aplicaciones clínicas en humanos [5, 88]. Es imperativo que comprendamos y deconstruyamos completamente la senescencia celular para atacar las enfermedades relacionadas con el envejecimiento. Esperamos que CellAge ayude a los investigadores a comprender el papel que desempeña el CS en el envejecimiento y las enfermedades relacionadas con el envejecimiento y contribuya al desarrollo de fármacos y estrategias para mejorar los efectos perjudiciales de las células senescentes.


                    0. Datos

                    Imaginemos que tenemos datos recopilados desde septiembre de 2020 hasta junio de 2021 para un estudio clínico a fin de comprender el tiempo de supervivencia entre los pacientes con cáncer. A continuación, se muestra una cronología de las personas que participaron en este estudio hipotético:

                    Mantuvimos un conjunto de datos pequeño para nuestro estudio imaginario para que sea más fácil monitorear de cerca el proceso. Los círculos negros sólidos indican la última entrada de datos de un registro. Una cruz dentro del círculo significa que el registro tuvo el evento (es decir, la muerte), mientras que un signo de interrogación significa que el registro no tuvo el evento. Para ser más específicos, hay tres escenarios posibles.

                    1. Tuvo evento: Tuvo un evento durante el estudio (por ejemplo, registro a y C)
                    2. No evento: No tenía evento al final del estudio (por ejemplo, registro byd).
                    3. No evento: Abandonó el estudio antes del criterio de valoración y no tuvo ningún evento mientras estaba inscrito en el estudio (p. Ej., Registrar F y h).

                    El segundo y tercer tipo de registros se denominan registros censurados, más específicamente censurados por la derecha, ya que tenemos información incompleta sobre el evento.

                    En el gráfico de arriba, vemos un hora del calendario en el eje horizontal. Ahora, necesitamos convertir un hora del calendario a un tiempo de supervivencia, a Duración de tiempo medido en relación con la fecha de inscripción al estudio. Tiempo de supervivencia se conoce comúnmente como duración en las bibliotecas de Python con las que nos familiarizaremos más adelante, usaremos estos términos indistintamente de aquí en adelante.

                    Usando la siguiente secuencia de comandos, importemos las bibliotecas que necesitamos y creemos un pequeño DataFrame que contenga duración y evento para los 9 registros:


                    Funciones principales de nQuery

                    • Cálculo del tamaño de la muestra para aprobación regulatoria (FDA / EMA)
                      - Calcule constantemente el tamaño de muestra apropiado para el envío a la FDA / EMA
                    • Reducir el riesgo y el costo en los ensayos clínicos
                      - Técnicas clásicas, bayesianas y adaptativas de amplificador para optimizar su diseño de prueba
                    • Potente opción de tamaño de muestra
                      - Calcule rápidamente el tamaño de la muestra y realice un análisis de potencia
                    • Colaboración en equipo
                      - Calcule fácilmente y luego comunique los hallazgos a su equipo y a quienes no sean estadísticos
                    • Cálculo intuitivo del tamaño de la muestra y del poder de detección
                      - Calcule el tamaño de la muestra y realice un análisis de potencia con una interfaz limpia y fácil de usar

                    Plantillas de presentación para resumir el cáncer y las medidas de pronóstico reales

                    Desarrollamos una plantilla de presentación para resumir las medidas de pronóstico del cáncer y el pronóstico real. La plantilla está diseñada para presentar de manera más eficiente y clara: las tendencias de supervivencia, el efecto de las características pronósticas y demográficas sobre el pronóstico del cáncer y las medidas de pronóstico reales para los pacientes con cáncer y los médicos. Presentamos las plantillas para ocho sitios principales de cáncer: próstata, mama femenina, pulmón y bronquios, colon y recto, vejiga urinaria, páncreas, cánceres del cuerpo uterino y leucemia. Para representar el pronóstico del cáncer usamos supervivencia relativa a cinco años o supervivencia de cinco años por causa específica, dependiendo de cuál sea más apropiado. Incluimos intervalos de confianza del 95% siempre que sea posible.


                    Contenido

                    Análisis, se refiere a dividir un todo en sus componentes separados para un examen individual. [10] Análisis de los datos, es un proceso para obtener datos brutos y, posteriormente, convertirlos en información útil para la toma de decisiones por parte de los usuarios. [1] Datos, se recopila y analiza para responder preguntas, probar hipótesis o refutar teorías. [11]

                    El estadístico John Tukey, definió el análisis de datos en 1961 como:

                    "Procedimientos para analizar datos, técnicas para interpretar los resultados de tales procedimientos, formas de planificar la recopilación de datos para hacer su análisis más fácil, más preciso o más exacto, y toda la maquinaria y resultados de las estadísticas (matemáticas) que se aplican al análisis de datos . " [12]

                    Hay varias fases que se pueden distinguir, que se describen a continuación. Las fases son iterativas, ya que la retroalimentación de fases posteriores puede resultar en trabajo adicional en fases anteriores. [13] El marco CRISP, utilizado en la minería de datos, tiene pasos similares.

                    Requisitos de datos Editar

                    Los datos son necesarios como insumos para el análisis, que se especifica en función de los requisitos de quienes dirigen el análisis o de los clientes (que utilizarán el producto terminado del análisis). [14] [15] El tipo general de entidad sobre la que se recopilarán los datos se denomina unidad experimental (por ejemplo, una persona o una población de personas). Se pueden especificar y obtener variables específicas con respecto a una población (por ejemplo, edad e ingresos). Los datos pueden ser numéricos o categóricos (es decir, una etiqueta de texto para números). [13]

                    Recolección de datos Editar

                    Los datos se recopilan de diversas fuentes. [16] [17] Los analistas pueden comunicar los requisitos a los custodios de los datos, como el personal de tecnología de la información dentro de una organización. [18] Los datos también pueden recopilarse de sensores en el entorno, incluidas cámaras de tráfico, satélites, dispositivos de grabación, etc. También pueden obtenerse a través de entrevistas, descargas de fuentes en línea o lectura de documentación. [13]

                    Procesamiento de datos Editar

                    Los datos, cuando se obtienen inicialmente, deben procesarse u organizarse para su análisis. [19] [20] Por ejemplo, estos pueden implicar colocar datos en filas y columnas en un formato de tabla (conocido como datos estructurados) para un análisis posterior, a menudo mediante el uso de hojas de cálculo o software estadístico. [13]

                    Limpieza de datos Editar

                    Una vez procesados ​​y organizados, los datos pueden estar incompletos, contener duplicados o contener errores. [21] [22] La necesidad de limpieza de datos, surgirá de problemas en la forma en que se ingresan y almacenan los datos. [21] La limpieza de datos es el proceso de prevenir y corregir estos errores. Las tareas comunes incluyen la coincidencia de registros, la identificación de datos inexactos, la calidad general de los datos existentes, la deduplicación y la segmentación de columnas. [23] Estos problemas de datos también pueden identificarse mediante una variedad de técnicas analíticas. Por ejemplo, con información financiera, los totales de variables particulares pueden compararse con números publicados por separado, que se cree que son confiables. [24] [25] También se pueden revisar las cantidades inusuales, por encima o por debajo de los umbrales predeterminados. Hay varios tipos de limpieza de datos, que dependen del tipo de datos en el conjunto, pueden ser números de teléfono, direcciones de correo electrónico, empleadores u otros valores. [26] [27] Los métodos de datos cuantitativos para la detección de valores atípicos se pueden utilizar para eliminar los datos que parecen tener una mayor probabilidad de ser ingresados ​​incorrectamente. [28] Los correctores ortográficos de datos textuales se pueden utilizar para reducir la cantidad de palabras mal escritas, sin embargo, es más difícil saber si las palabras en sí son correctas. [29]

                    Análisis exploratorio de datos Editar

                    Una vez que se limpian los conjuntos de datos, se pueden analizar. Los analistas pueden aplicar una variedad de técnicas, denominadas análisis de datos exploratorios, para comenzar a comprender los mensajes contenidos en los datos obtenidos. [30] El proceso de exploración de datos puede resultar en una limpieza de datos adicional o solicitudes adicionales de datos, por lo tanto, la inicialización del fases iterativas mencionado en el párrafo principal de esta sección. [31] Se pueden generar estadísticas descriptivas, como el promedio o la mediana, para ayudar a comprender los datos. [32] [33] La visualización de datos también es una técnica utilizada, en la cual el analista puede examinar los datos en un formato gráfico para obtener información adicional sobre los mensajes dentro de los datos. [13]

                    Modelado y algoritmos Editar

                    Fórmulas matemáticas o modelos (conocido como algoritmos), se pueden aplicar a los datos para identificar relaciones entre las variables, por ejemplo, usando correlación o causalidad. [34] [35] En términos generales, se pueden desarrollar modelos para evaluar una variable específica en función de otras variables contenidas en el conjunto de datos, con algunos error residual dependiendo de la precisión del modelo implementado (p.ej., Datos = Modelo + Error). [36] [11]

                    La estadística inferencial incluye la utilización de técnicas que miden las relaciones entre variables particulares. [37] Por ejemplo, el análisis de regresión se puede utilizar para modelar si un cambio en la publicidad (variable independiente X), proporciona una explicación de la variación en las ventas (variable dependiente Y). [38] En términos matemáticos, Y (ventas) es una función de X (publicidad). [39] Puede describirse como (Y = hacha + B + error), donde el modelo está diseñado de tal manera que (a) y (B) minimizar el error cuando el modelo predice Y para un rango dado de valores de X. [40] Los analistas también pueden intentar construir modelos que sean descriptivos de los datos, con el objetivo de simplificar el análisis y comunicar los resultados. [11]

                    Producto de datos Editar

                    A producto de datos, es una aplicación informática que toma entradas de datos y genera salidas, devolviéndolos al medio ambiente. [41] Puede basarse en un modelo o algoritmo. Por ejemplo, una aplicación que analiza datos sobre el historial de compras del cliente y utiliza los resultados para recomendar otras compras que el cliente podría disfrutar. [42] [13]

                    Comunicación Editar

                    Una vez que se analizan los datos, se pueden informar en muchos formatos a los usuarios del análisis para respaldar sus requisitos. [44] Los usuarios pueden tener comentarios, lo que da como resultado un análisis adicional. Como tal, gran parte del ciclo analítico es iterativo. [13]

                    Al determinar cómo comunicar los resultados, el analista puede considerar implementar una variedad de técnicas de visualización de datos, para ayudar a comunicar el mensaje a la audiencia de manera clara y eficiente. [45] La visualización de datos utiliza pantallas de información (gráficos como tablas y gráficos) para ayudar a comunicar los mensajes clave contenidos en los datos. [46] Las tablas son una herramienta valiosa que permite a un usuario consultar y centrarse en números específicos, mientras que los gráficos (por ejemplo, gráficos de barras o gráficos de líneas) pueden ayudar a explicar los mensajes cuantitativos contenidos en los datos. [47]

                    Stephen Few describió ocho tipos de mensajes cuantitativos que los usuarios pueden intentar comprender o comunicar a partir de un conjunto de datos y los gráficos asociados que se utilizan para ayudar a comunicar el mensaje. [48] ​​Los clientes que especifiquen los requisitos y los analistas que realicen el análisis de datos pueden considerar estos mensajes durante el transcurso del proceso. [49]

                    1. Series de tiempo: se captura una sola variable durante un período de tiempo, como la tasa de desempleo durante un período de 10 años. Se puede utilizar un gráfico de líneas para demostrar la tendencia. [50]
                    2. Clasificación: las subdivisiones categóricas se clasifican en orden ascendente o descendente, como una clasificación de rendimiento de ventas (el la medida) por vendedores (el categoría, con cada vendedor un subdivisión categórica) durante un solo período. [51] Puede utilizarse un gráfico de barras para mostrar la comparación entre los vendedores. [52]
                    3. Parte-a-todo: las subdivisiones categóricas se miden como una proporción del todo (es decir, un porcentaje de 100%). Un gráfico circular o un gráfico de barras pueden mostrar la comparación de razones, como la participación de mercado representada por los competidores en un mercado. [53]
                    4. Desviación: las subdivisiones categóricas se comparan con una referencia, como una comparación de los gastos reales con los presupuestados para varios departamentos de una empresa durante un período de tiempo determinado. Un gráfico de barras puede mostrar la comparación de la cantidad real con la de referencia. [54]
                    5. Distribución de frecuencia: muestra el número de observaciones de una variable en particular para un intervalo dado, como el número de años en los que el rendimiento del mercado de valores se encuentra entre intervalos como 0-10%, 11-20%, etc. Un histograma, un tipo de gráfico de barras, se puede utilizar para este análisis. [55]
                    6. Correlación: Comparación entre observaciones representadas por dos variables (X, Y) para determinar si tienden a moverse en la misma dirección o en direcciones opuestas. Por ejemplo, graficar el desempleo (X) y la inflación (Y) para una muestra de meses. Normalmente, se utiliza un diagrama de dispersión para este mensaje. [56]
                    7. Comparación nominal: comparación de subdivisiones categóricas sin ningún orden en particular, como el volumen de ventas por código de producto. Se puede utilizar un gráfico de barras para esta comparación. [57]
                    8. Geográfica o geoespacial: comparación de una variable en un mapa o diseño, como la tasa de desempleo por estado o el número de personas en los distintos pisos de un edificio. Un cartograma es un gráfico típico utilizado. [58] [59]

                    El autor Jonathan Koomey ha recomendado una serie de mejores prácticas para comprender los datos cuantitativos. [60] Estos incluyen:

                    • Verifique los datos sin procesar en busca de anomalías antes de realizar un análisis
                    • Vuelva a realizar cálculos importantes, como verificar columnas de datos que se basan en fórmulas
                    • Confirme que los totales principales son la suma de los subtotales
                    • Verifique las relaciones entre los números que deben estar relacionados de una manera predecible, como las proporciones a lo largo del tiempo.
                    • Normalizar los números para facilitar las comparaciones, como analizar las cantidades por persona o en relación con el PIB o como un valor de índice en relación con un año base.
                    • Divida los problemas en componentes mediante el análisis de los factores que llevaron a los resultados, como el análisis de DuPont sobre el rendimiento del capital. [25]

                    Para las variables que se examinan, los analistas suelen obtener estadísticas descriptivas para ellas, como la media (promedio), la mediana y la desviación estándar. [61] También pueden analizar la distribución de las variables clave para ver cómo los valores individuales se agrupan alrededor de la media. [62]

                    Los consultores de McKinsey and Company nombraron una técnica para dividir un problema cuantitativo en sus partes componentes llamada principio MECE. [63] Cada capa se puede dividir en sus componentes, cada uno de los subcomponentes debe ser mutuamente excluyente y sumarse colectivamente a la capa que está encima de ellos. [64] La relación se conoce como "mutuamente excluyente y colectivamente exhaustiva" o MECE. Por ejemplo, las ganancias, por definición, se pueden dividir en ingresos totales y costos totales. [65] A su vez, los ingresos totales pueden analizarse por sus componentes, como los ingresos de las divisiones A, B y C (que se excluyen mutuamente) y deben sumarse a los ingresos totales (colectivamente exhaustivos). [66]

                    Los analistas pueden utilizar medidas estadísticas sólidas para resolver ciertos problemas analíticos. [67] La ​​prueba de hipótesis se utiliza cuando el analista formula una hipótesis particular sobre el verdadero estado de cosas y se recopilan datos para determinar si ese estado de cosas es verdadero o falso. [68] [69] Por ejemplo, la hipótesis podría ser que "El desempleo no tiene ningún efecto sobre la inflación", lo que se relaciona con un concepto económico llamado Curva de Phillips. [70] La prueba de hipótesis implica considerar la probabilidad de errores de tipo I y tipo II, que se relacionan con si los datos apoyan la aceptación o el rechazo de la hipótesis. [71] [72]

                    El análisis de regresión se puede utilizar cuando el analista está tratando de determinar hasta qué punto la variable independiente X afecta a la variable dependiente Y (por ejemplo, "¿En qué medida los cambios en la tasa de desempleo (X) afectan la tasa de inflación (Y)?"). [73] Este es un intento de modelar o ajustar una línea o curva de ecuación a los datos, de modo que Y sea una función de X. [74] [75]

                    El análisis de condición necesaria (NCA) se puede utilizar cuando el analista está tratando de determinar hasta qué punto la variable independiente X permite la variable Y (por ejemplo, "¿En qué medida es necesaria una determinada tasa de desempleo (X) para una determinada tasa de inflación (Y)? ? "). [73] Mientras que el análisis de regresión (múltiple) utiliza una lógica aditiva en la que cada variable X puede producir el resultado y las X pueden compensarse entre sí (son suficientes pero no necesarias), [76] el análisis de condiciones necesarias (NCA) utiliza la lógica de necesidad , donde una o más variables X permiten que exista el resultado, pero pueden no producirlo (son necesarias pero no suficientes). Cada condición necesaria debe estar presente y la compensación no es posible. [77]

                    Los usuarios pueden tener puntos de interés de datos particulares dentro de un conjunto de datos, a diferencia de los mensajes generales descritos anteriormente. Estas actividades analíticas de usuario de bajo nivel se presentan en la siguiente tabla. La taxonomía también se puede organizar mediante tres polos de actividades: recuperar valores, encontrar puntos de datos y organizar puntos de datos. [78] [79] [80] [81]

                    - ¿Cuánto dura la película Lo que el viento se llevó?

                    - ¿Qué comedias han ganado premios?

                    - ¿Qué fondos obtuvieron un rendimiento inferior al SP-500?

                    - ¿Cuál es el ingreso bruto de todas las tiendas combinadas?

                    - ¿Cuántos fabricantes de coches hay?

                    - ¿Qué director / película ha ganado más premios?

                    - ¿Qué película de Marvel Studios tiene la fecha de estreno más reciente?

                    - Clasifique los cereales por calorías.

                    - ¿Cuál es la gama de potencias de los coches?

                    - ¿Qué actrices hay en el conjunto de datos?

                    - ¿Cuál es la distribución por edades de los compradores?

                    - ¿Hay valores atípicos en las proteínas?

                    - ¿Existe un grupo de largometrajes típicos?

                    - ¿Existe una correlación entre el país de origen y las MPG?

                    - ¿Los diferentes géneros tienen un método de pago preferido?

                    - ¿Existe una tendencia a aumentar la duración de las películas a lo largo de los años?

                    Pueden existir barreras para un análisis efectivo entre los analistas que realizan el análisis de datos o entre la audiencia. Distinguir los hechos de las opiniones, los sesgos cognitivos y el analfabetismo son todos desafíos para el análisis de datos sólidos. [82]

                    Confusión de hechos y opiniones Editar

                    Un análisis eficaz requiere obtener hechos relevantes para responder preguntas, respaldar una conclusión u opinión formal o probar hipótesis. [83] [84] Los hechos por definición son irrefutables, lo que significa que cualquier persona involucrada en el análisis debería poder estar de acuerdo con ellos. [85] Por ejemplo, en agosto de 2010, la Oficina de Presupuesto del Congreso (CBO) estimó que extender los recortes de impuestos de Bush de 2001 y 2003 para el período 2011-2020 agregaría aproximadamente $ 3.3 billones a la deuda nacional. [86] Todos deberían poder estar de acuerdo en que, de hecho, esto es lo que CBO informó que todos pueden examinar el informe. Esto lo convierte en un hecho. Si las personas están de acuerdo o en desacuerdo con la CBO es su propia opinión. [87]

                    Como otro ejemplo, el auditor de una empresa que cotiza en bolsa debe llegar a una opinión formal sobre si los estados financieros de las empresas que cotizan en bolsa están "establecidos de manera justa, en todos los aspectos materiales". [88] Esto requiere un análisis extenso de datos fácticos y pruebas para respaldar su opinión. Al dar el salto de los hechos a las opiniones, siempre existe la posibilidad de que la opinión sea errónea. [89]

                    Sesgos cognitivos Editar

                    Existe una variedad de sesgos cognitivos que pueden afectar negativamente al análisis. Por ejemplo, el sesgo de confirmación es la tendencia a buscar o interpretar información de una manera que confirme las ideas preconcebidas. [90] Además, las personas pueden desacreditar información que no respalde sus opiniones. [91]

                    Los analistas pueden estar capacitados específicamente para ser conscientes de estos sesgos y cómo superarlos. [92] En su libro Psicología del análisis de la inteligenciaEl analista retirado de la CIA Richards Heuer escribió que los analistas deben delinear claramente sus supuestos y cadenas de inferencia y especificar el grado y la fuente de la incertidumbre involucrada en las conclusiones. [93] Hizo hincapié en los procedimientos para ayudar a sacar a la luz y debatir puntos de vista alternativos. [94]

                    Innumeracy Editar

                    Los analistas eficaces suelen ser expertos en una variedad de técnicas numéricas. Sin embargo, es posible que las audiencias no tengan tanta alfabetización numérica o aritmética que se dice que son innumerables. [95] Las personas que comunican los datos también pueden estar intentando engañar o desinformar, utilizando deliberadamente malas técnicas numéricas. [96]

                    Por ejemplo, si un número está subiendo o bajando puede no ser el factor clave. Más importante puede ser el número en relación con otro número, como el tamaño de los ingresos o gastos del gobierno en relación con el tamaño de la economía (PIB) o la cantidad de costo en relación con los ingresos en los estados financieros corporativos. [97] Esta técnica numérica se conoce como normalización [25] o tamaño común. Hay muchas técnicas de este tipo empleadas por los analistas, ya sea ajustando la inflación (es decir, comparando datos reales con los nominales) o considerando aumentos de población, datos demográficos, etc. [98] Los analistas aplican una variedad de técnicas para abordar los diversos mensajes cuantitativos descritos en el sección anterior. [99]

                    Los analistas también pueden analizar datos bajo diferentes supuestos o escenarios. Por ejemplo, cuando los analistas realizan análisis de estados financieros, a menudo reformularán los estados financieros bajo diferentes supuestos para ayudar a llegar a una estimación del flujo de efectivo futuro, que luego descuentan al valor presente con base en alguna tasa de interés, para determinar la valoración del flujo de efectivo. empresa o sus acciones. [100] [101] De manera similar, la CBO analiza los efectos de diversas opciones de política sobre los ingresos, los desembolsos y los déficits del gobierno, creando escenarios futuros alternativos para las medidas clave. [102]

                    Edificios inteligentes Editar

                    Se puede utilizar un enfoque de análisis de datos para predecir el consumo de energía en los edificios. [103] Los diferentes pasos del proceso de análisis de datos se llevan a cabo para realizar edificios inteligentes, donde las operaciones de gestión y control del edificio, incluidas la calefacción, ventilación, aire acondicionado, iluminación y seguridad, se realizan automáticamente imitando las necesidades de los usuarios del edificio. y optimizar recursos como energía y tiempo. [104]

                    Analítica e inteligencia empresarial Editar

                    La analítica es el "uso extensivo de datos, análisis estadístico y cuantitativo, modelos explicativos y predictivos, y gestión basada en hechos para impulsar decisiones y acciones". Es un subconjunto de la inteligencia empresarial, que es un conjunto de tecnologías y procesos que utiliza datos para comprender y analizar el rendimiento empresarial para impulsar la toma de decisiones. [105]

                    Educación Editar

                    En educación, la mayoría de los educadores tienen acceso a un sistema de datos con el fin de analizar los datos de los estudiantes.[106] Estos sistemas de datos presentan datos a los educadores en un formato de datos de venta libre (incrustando etiquetas, documentación complementaria y un sistema de ayuda y tomando decisiones clave sobre paquetes / visualización y contenido) para mejorar la precisión de los análisis de datos de los educadores. [107]

                    Esta sección contiene explicaciones bastante técnicas que pueden ayudar a los profesionales, pero están más allá del alcance típico de un artículo de Wikipedia. [108]

                    Análisis de datos inicial Editar

                    La distinción más importante entre la fase de análisis de datos inicial y la fase de análisis principal es que durante el análisis de datos inicial uno se abstiene de cualquier análisis que tenga como objetivo responder a la pregunta de investigación original. [109] La fase inicial de análisis de datos se rige por las cuatro preguntas siguientes: [110]

                    Calidad de los datos Editar

                    La calidad de los datos debe comprobarse lo antes posible. La calidad de los datos se puede evaluar de varias formas, utilizando diferentes tipos de análisis: recuentos de frecuencia, estadísticas descriptivas (media, desviación estándar, mediana), normalidad (asimetría, curtosis, histogramas de frecuencia), se necesita imputación normal. [111]

                    • Análisis de observaciones extremas: las observaciones periféricas en los datos se analizan para ver si parecen alterar la distribución. [112]
                    • Comparación y corrección de diferencias en los esquemas de codificación: las variables se comparan con esquemas de codificación de variables externas al conjunto de datos, y posiblemente se corrigen si los esquemas de codificación no son comparables. [113]
                    • Pruebe la varianza del método común.

                    La elección de análisis para evaluar la calidad de los datos durante la fase inicial de análisis de datos depende de los análisis que se realizarán en la fase de análisis principal. [114]

                    Calidad de las medidas Editar

                    La calidad de los instrumentos de medición solo debe verificarse durante la fase inicial de análisis de datos cuando este no sea el enfoque o la pregunta de investigación del estudio. [115] [116] Se debe verificar si la estructura de los instrumentos de medición corresponde a la estructura reportada en la literatura.

                    Hay dos formas de evaluar la calidad de la medición:

                    • Análisis factorial confirmatorio
                    • Análisis de homogeneidad (consistencia interna), que da una indicación de la fiabilidad de un instrumento de medida. [117] Durante este análisis, se inspeccionan las varianzas de los ítems y las escalas, el α de Cronbach de las escalas y el cambio en el alfa de Cronbach cuando un ítem sería eliminado de una escala [118]

                    Transformaciones iniciales Editar

                    Después de evaluar la calidad de los datos y de las mediciones, se puede decidir imputar los datos faltantes o realizar transformaciones iniciales de una o más variables, aunque esto también se puede hacer durante la fase principal de análisis. [119]
                    Las posibles transformaciones de variables son: [120]

                    • Transformación de raíz cuadrada (si la distribución difiere moderadamente de la normal)
                    • Transformación logarítmica (si la distribución difiere sustancialmente de la normal)
                    • Transformación inversa (si la distribución difiere mucho de la normal)
                    • Hacer categórico (ordinal / dicotómico) (si la distribución difiere mucho de la normal y no ayuda ninguna transformación)

                    ¿La implementación del estudio cumplió con las intenciones del diseño de la investigación? Editar

                    Se debe verificar el éxito del procedimiento de aleatorización, por ejemplo, verificando si las variables de fondo y sustantivas están distribuidas por igual dentro y entre los grupos. [121]
                    Si el estudio no necesitó o utilizó un procedimiento de aleatorización, se debe verificar el éxito del muestreo no aleatorio, por ejemplo, verificando si todos los subgrupos de la población de interés están representados en la muestra. [122]
                    Otras posibles distorsiones de datos que deben comprobarse son:

                      (esto debe identificarse durante la fase inicial de análisis de datos)
                • La falta de respuesta al ítem (si esto es aleatorio o no, debe evaluarse durante la fase inicial de análisis de datos)
                • Calidad del tratamiento (mediante controles de manipulación). [123]
                • Características de la muestra de datos Editar

                  En cualquier informe o artículo, la estructura de la muestra debe describirse con precisión. [124] [125] Es especialmente importante determinar exactamente la estructura de la muestra (y específicamente el tamaño de los subgrupos) cuando se realizarán análisis de subgrupos durante la fase de análisis principal. [126]
                  Las características de la muestra de datos se pueden evaluar observando:

                  • Estadísticas básicas de variables importantes
                  • Gráfico de dispersión
                  • Correlaciones y asociaciones
                  • Tabulaciones cruzadas [127]

                  Etapa final del análisis de datos inicial Editar

                  Durante la etapa final, se documentan los hallazgos del análisis de datos inicial y se toman las acciones correctivas necesarias, preferibles y posibles. [128]
                  Además, el plan original para los análisis de datos principales puede y debe especificarse con más detalle o reescribirse. [129] [130]
                  Para ello, se pueden y se deben tomar varias decisiones sobre los principales análisis de datos:

                  • En el caso de las variables no normales: ¿se deben transformar las variables para hacer que las variables sean categóricas (ordinales / dicotómicas) adaptar el método de análisis?
                  • En el caso de datos faltantes: ¿se debe descuidar o imputar los datos faltantes, qué técnica de imputación se debe utilizar?
                  • En el caso de valores atípicos: ¿se deben utilizar técnicas de análisis robustas?
                  • En caso de que los ítems no se ajusten a la escala: ¿se debería adaptar el instrumento de medición omitiendo ítems, o más bien asegurar la comparabilidad con otros (usos del) instrumento (s) de medición?
                  • En el caso de subgrupos (demasiado) pequeños: ¿se debería descartar la hipótesis sobre las diferencias entre grupos o utilizar técnicas de muestra pequeña, como pruebas exactas o bootstrapping?
                  • En caso de que el procedimiento de aleatorización parezca defectuoso: ¿se pueden y se deben calcular las puntuaciones de propensión e incluirlas como covariables en los análisis principales? [131]

                  Análisis Editar

                  Se pueden utilizar varios análisis durante la fase inicial de análisis de datos: [132]

                  • Estadística univariante (variable única)
                  • Asociaciones bivariadas (correlaciones)
                  • Técnicas gráficas (diagramas de dispersión)

                  Es importante tener en cuenta los niveles de medición de las variables para los análisis, ya que se dispone de técnicas estadísticas especiales para cada nivel: [133]

                  • Variables nominales y ordinales
                    • Recuentos de frecuencia (números y porcentajes)
                    • Asociaciones
                      • circunvalaciones (tabulaciones cruzadas)
                      • análisis loglineal jerárquico (restringido a un máximo de 8 variables)
                      • análisis loglineal (para identificar variables relevantes / importantes y posibles factores de confusión)
                      • Distribución
                        • Estadísticas (M, SD, varianza, asimetría, curtosis)
                        • Exhibidores de tallo y hojas
                        • Diagramas de caja

                        Análisis no lineal Editar

                        El análisis no lineal suele ser necesario cuando los datos se registran desde un sistema no lineal. Los sistemas no lineales pueden exhibir efectos dinámicos complejos que incluyen bifurcaciones, caos, armónicos y subarmónicos que no se pueden analizar con métodos lineales simples. El análisis de datos no lineales está estrechamente relacionado con la identificación de sistemas no lineales. [134]

                        Análisis de datos principales Editar

                        En la fase de análisis principal se realizan análisis destinados a responder la pregunta de investigación, así como cualquier otro análisis relevante necesario para redactar el primer borrador del informe de investigación. [135]

                        Enfoques exploratorios y confirmatorios Editar

                        En la fase de análisis principal se puede adoptar un enfoque exploratorio o confirmatorio. Por lo general, el enfoque se decide antes de recopilar los datos. [136] En un análisis exploratorio no se establece una hipótesis clara antes de analizar los datos, y se buscan en los datos modelos que describan bien los datos. [137] En un análisis confirmatorio se prueban hipótesis claras sobre los datos. [138]

                        El análisis de datos exploratorios debe interpretarse con cuidado. Cuando se prueban varios modelos a la vez, existe una alta probabilidad de encontrar que al menos uno de ellos sea significativo, pero esto puede deberse a un error de tipo 1. [139] Es importante ajustar siempre el nivel de significancia cuando se prueban varios modelos con, por ejemplo, una corrección de Bonferroni. [140] Además, no se debe seguir un análisis exploratorio con un análisis confirmatorio en el mismo conjunto de datos. [141] Un análisis exploratorio se utiliza para encontrar ideas para una teoría, pero no para probar esa teoría también. [141] Cuando un modelo se encuentra exploratorio en un conjunto de datos, el seguimiento de ese análisis con un análisis confirmatorio en el mismo conjunto de datos podría simplemente significar que los resultados del análisis confirmatorio se deben al mismo error tipo 1 que resultó en el modelo exploratorio. en primer lugar. [141] Por tanto, el análisis confirmatorio no será más informativo que el análisis exploratorio original. [142]

                        Estabilidad de resultados Editar

                        Es importante obtener alguna indicación sobre qué tan generalizables son los resultados. [143] Si bien esto a menudo es difícil de verificar, se puede observar la estabilidad de los resultados. ¿Son los resultados fiables y reproducibles? Hay dos formas principales de hacerlo. [144]

                        • Validación cruzada. Al dividir los datos en varias partes, podemos verificar si un análisis (como un modelo ajustado) basado en una parte de los datos se generaliza también a otra parte de los datos. [145] Sin embargo, la validación cruzada es generalmente inapropiada si existen correlaciones dentro de los datos, p. Ej. con datos de panel. [146] Por tanto, a veces es necesario utilizar otros métodos de validación. Para obtener más información sobre este tema, consulte la validación del modelo estadístico. [147]
                        • Análisis de sensibilidad. Procedimiento para estudiar el comportamiento de un sistema o modelo cuando los parámetros globales se varían (sistemáticamente). Una forma de hacerlo es mediante bootstrapping. [148]

                        El software gratuito notable para el análisis de datos incluye:

                          - Un sistema de base de datos avalado por el Grupo de las Naciones Unidas para el Desarrollo para el seguimiento y análisis del desarrollo humano. [149] - Marco de minería de datos en Java con funciones de visualización orientadas a la minería de datos. - Konstanz Information Miner, un marco de análisis de datos completo y fácil de usar. - Una herramienta de programación visual con visualización de datos interactivos y métodos para análisis de datos estadísticos, minería de datos y aprendizaje automático. - Biblioteca de Python para análisis de datos. - Marco de análisis de datos FORTRAN / C desarrollado en el CERN. - Un lenguaje de programación y un entorno de software para gráficos y computación estadística. [150] - Marco de análisis de datos C ++ desarrollado en el CERN. - Biblioteca de Python para análisis de datos. - Un lenguaje de programación adecuado para el análisis numérico y la ciencia computacional.

                        Diferentes empresas u organizaciones realizan concursos de análisis de datos para alentar a los investigadores a utilizar sus datos o resolver una pregunta en particular mediante el análisis de datos. [151] [152] A continuación se muestran algunos ejemplos de concursos internacionales de análisis de datos bien conocidos. [153]


                        Ver el vídeo: Ποιοι Κυνηγούσαν τους Πρωτοχριστιανους- Λίλιθ ποια Είναι (Junio 2022).


Comentarios:

  1. Brendan

    Encuentro que no tienes razón. Estoy seguro. Puedo probarlo.

  2. Abel

    ¡¡¡Bien!!! En lugar de un libro para la noche.

  3. Jakome

    Bonito, bonito, sigue con el buen trabajo.

  4. Hernando

    En este algo es. Muchas gracias por la ayuda de esta pregunta.

  5. Nechtan

    Pido disculpas, pero esta respuesta no funciona para mí. ¿Quizás hay opciones?

  6. Bromly

    Gracias por su ayuda en este asunto, ¿tal vez también pueda ayudarlo con algo?



Escribe un mensaje