(1) 请问下,我的DSP28335 ADC工作在 ADC内核时钟:12.5M,采样窗频率:12.5M,
在这样的配置下,ADC采样1K~10K的正玄波频率,误差只有10 mv,当采样20K频率的时候误差达到50mv,采样100K,得到的电压
就只有示波器测出来的一半,这问这是怎么回事呢?
(2) 我什么都不变,只把ADC的内核时钟改到25M,采样窗频率也为25M,发现和之前测的数据一样,即便是100K的时候,采样所得的电压
也一样,按道理来说,这也电压值应该提高才合理呢? 注:理论上:25M的内核时钟采样100K的信号,在一个信号中可以画125个点,但是实际和理论偏差
太大了,恒疑惑!
(3) 我要采样的频率为1K到500K的信号的峰值大小,请问有什么好的方法(硬件和软件)处理吗? 注:硬件已经把信号抬高,电压在ADC工作范围内!