<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Jan 2, 2014 at 6:49 AM, Bill Gribble <span dir="ltr"><<a href="mailto:grib@billgribble.com" target="_blank">grib@billgribble.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Wait a minute.  This discussion is making my head spin!  How is there any way at all that increasing the sampling rate, and changing nothing else, will improve the lowest reliable latency of a system?<br>
</blockquote><div><br></div><div>Fons' point, which I believe started this, was that the latency caused by A/D and D/A converters is reduced (or can be reduced) when using a higher SR. Nothing more. When you're already using very small buffer sizes at the CPU level, reducing these additional delays in the analog conversion process can be signficant.<br>
<br></div><div>There is an additional point that some devices cannot be configured to use a buffer size below a given value, and so even if you system could handle the lower latency setting, the only way to get there is to double the SR.<br>
</div><br></div></div></div>