Esto se debe, o bien a la variabilidad de la fuente, como tambien al error propio del conversor, recordar que esta es de +/- 1 LSB, ...asi que de todas formas, como el error del ADC es conocido, pero desconocemos el error de la fuente, entonces, siempre se aconseja, aplicar la desviacion estandar, osea, la medida de la dispersion respecto de la media. Ese valor seria mas real, por tanto, se aconseja tomar una cantidad de muestras posibles (mientras mayor sea la muestra, mas real será el resultado) y suficientes, y aplicarles la desviacion estandar...ese valro se puede caclucar cada 0,5 segundos por ejemplo, o cada 1 0 2 segundos, claro está, si la aplicacion lo permite..de todas maneras, jamas se lograra tener una medicion pegada a 5 volts por ejemplo,....jamas...ese problema surge cuando medimos temperatura por ejemplo, con un LM35..vemos que los grados cambian muy rapidamente.....bueno, la solucion es usar conversores de 8 bit, cuyo error de 1/2 LSb o 1 LSB, segun sea el caso, significa un variacion de 20mv/bit, mientras que en un conversor de 10 bits, la variacion medible es de 5/1024 (0 a 1023)=4,9 mV/bit....osea, que si aumentamos la resolucion del ADC, mayor será la variacion, aunquie ganamos en sensibilidad....una cosa por otra, como todo en la vida.....en FIN, las varaiciones las podemos eliminar o superar parcialmente sacando la desviacion estandar de las muestras....ustedes eligen la periodicidad de las mismas y la cantidad a evaluar...
Suerte