刚才用示波器对电池的过流保护时间进行了测量,发现实际结果和所设置的参数不一样。
OC Dsg Time 设置为1s,测量三次过流保护,结果分别是2.76s、2.7s、1.97s
设置为3s,测量三次结果为2.87s、3.3s、2.95s
设置为5s,测量三次结果为6s、5.9s、5.86s
设置为10s,测量一次结果为11.6s
这是什么因素造成的?为什么实际的保护时间和设置的会不一样?
This thread has been locked.
If you have a related question, please click the "Ask a related question" button in the top right corner. The newly created question will be automatically linked to this question.
从你的测试结果来看,你测试的是软件的过流保护,这个延时是有一些误差的,这个主要是由于电流测量引起的。软件的电流ADC采样值可以认为是1S一次,所以这个延时取决于你加载电流的时刻和ADC进行转换的时刻之间的差异。当然,你加载电流的大小也会有一些些影响,因为电路采样信号的输入前面还有一个低通滤波电路,你加载的电流超过设定值越多,误差越小。
应该这样说,如果是软件相关的保护,那么我上面说的因素都会有些影响,不过延时一般也是以秒为单位。但是如果是硬件相关的参数,那么ADC采样时候是不会影响的,能够影响的就是外部的滤波电路还有就是内部比较器的延时误差,不过硬件保护的延时通常都是mS或者us级别。