Autor Tema: Precisión del conversor A/D (10 bits 16 bits)  (Leído 1416 veces)

0 Usuarios y 1 Visitante están viendo este tema.

Desconectado pocher

  • Moderador Local
  • DsPIC30
  • *****
  • Mensajes: 2568
Precisión del conversor A/D (10 bits 16 bits)
« en: 07 de Octubre de 2004, 06:33:00 »
De nuevo desempolvo este tema, que en su día fué comentado por MGLSOFT y no hace mucho también ha salido a la palestra.

Aquí teneis la explicación: http://miarroba.com/foros/ver.php?foroid=8826&temaid=1584926&marcar=precision+conversor

No lo entendí entonces y por más vueltas que le pego sigo sin entenderlo ahora.

Tengo claro que al intentar hacer que el conversor de 10 bits funcione como si se tratara de uno de 16, lo que se consigue es que el conversor siga siendo de 10 bits pero los saltos (escalones) son ahora de 64 en 64 (en lugar de 1 en 1) por lo tanto la primera conversión la hace para 00000000 01000000 (en decimal 64) y la última para 11111111 11000000 (en decimal 65535 - 63 = 65472) ¡¡pero sigue siendo de 10 bits!!

Y ahora la pregunta del millón: ¿Cual es la ventaja? eso es lo que no veo.

Quizá la explicación esté en lo que comenta MGLSOFT al final:  "Correccion, cada paso vale 64 cuentas (1,2,4,8,16,32 sumados), y si es cierto, el resultado sigue siendo de 10 bits (pseudo 16 bits), pero si se mantiene estable tienes mejor alcance bit a bit, entiendes ?? "

La mejora, ¡quizá!, debe estar en este último párrafo que yo he puesto en negrita, pero no lo veo.

Si alguién lo tiene claro, que haga el favor de explicarlo.

Un saludo