Como se calcula el limite de deteccion?
¿Cómo se calcula el límite de deteccion?
c) El límite de detección (LOD) de un método de análisis se puede definir como la cantidad de concentración de analito que proporciona una señal igual a la señal del blanco, yB, más tres veces la desviación estándar del blanco, sB.
¿Qué es la robustez de un metodo?
ROBUSTEZ: Medida de la capacidad de un procedimiento analítico de permanecer inafectado por pequeñas pero deliberadas variaciones en los parámetros del método y provee una indicación de su fiabilidad en condiciones de uso normales.
¿Qué es la incertidumbre en CT?
La incertidumbre se define como un parámetro que se asocia al resultado de una medida y que caracteriza la dispersión de valores que podrían, razonablemente, ser atribuidos al mensurando. Ese parámetro del que estamos hablando es un valor de desviación estándar.
¿Qué es el límite de detección?
El límite de detección (LDD) se define habitualmente como la cantidad o concentración mínima de sustancia que puede ser detectada con fiabilidad por un método analítico determinado.
¿Qué es el límite de linealidad?
El límite superior de linealidad se puede establecer gráficamente como la cantidad, concentración o flujo másico, en el cual la desviación excede del valor de variación especificado (± x % de la variación especificada). El límite inferior de linealidad es siempre la cantidad mínima detectable del mismo compuesto.
¿Qué es la validación de un método?
¿Qué es validación? “La validación de métodos, es el proceso por el cual se demuestra que los procedimientos analíticos son aptos para el uso indicado.”
¿Qué es un método de validación?
La validación de un método es el proceso para confirmar que el procedimiento analítico utilizado para una prueba en concreto es adecuado para su uso previsto.
¿Qué es la incertidumbre en quimica?
En esta definición queda implícito, que la incertidumbre es un valor que se determina en métodos cuantitativos, como una medida de dispersión que generalmente corresponde a la desviación típica o la raíz cuadrada de la varianza del mensurando como la magnitud que se intenta medir.
¿Qué es la incertidumbre en la estadística?
La incertidumbre estadística es «la aleatoridad o el error proveniente de varias fuentes como las descritas al usar la metodología estadística».
