This thread has been locked.

If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.

DSP28335 ADC 最大采样

     (1) 请问下,我的DSP28335 ADC工作在 ADC内核时钟:12.5M,采样窗频率:12.5M,

在这样的配置下,ADC采样1K~10K的正玄波频率,误差只有10 mv,当采样20K频率的时候误差达到50mv,采样100K,得到的电压

就只有示波器测出来的一半,这问这是怎么回事呢?

     (2) 我什么都不变,只把ADC的内核时钟改到25M,采样窗频率也为25M,发现和之前测的数据一样,即便是100K的时候,采样所得的电压

也一样,按道理来说,这也电压值应该提高才合理呢?   注:理论上:25M的内核时钟采样100K的信号,在一个信号中可以画125个点,但是实际和理论偏差

太大了,恒疑惑!

      (3) 我要采样的频率为1K到500K的信号的峰值大小,请问有什么好的方法(硬件和软件)处理吗?  注:硬件已经把信号抬高,电压在ADC工作范围内!

  • 你看一下F28335的datasheet可能会有帮助一些,严格来时从SOC产生到AD转换结果放到结果寄存器并不是25M的速度,另外,假设你以7MHz的速度去触发ADC 采样,你是怎么读取ADC的结果寄存器的呢,中断根本响应不过来。

  •         中断响应是可能,我是在中断里面吧读取的数放到一个数组里的,总共采样100个数然后在中断中,对这个数组进行处理的;还有我之前想过示波器的原理,示波器是没问题的,但是网上找了好多资料发现并不是理想的答案,你能给我讲讲示波器的采样原理吗?

           其次,我看网上有用ARM做的示波器,你知道他这个实现的大概原理吗?

           谢谢指导!