<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Jun 21, 2015 at 7:35 AM, Bill Gribble <span dir="ltr"><<a href="mailto:grib@billgribble.com" target="_blank">grib@billgribble.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Basically all audio processing in Linux is done on a buffer-by-buffer basis with a several-buffer queue.  You need to do nothing to get that, it's just the way the underlying system works.<br></blockquote><div><br></div><div>s/Linux/all general purpose operating systems, all plugin APIs, most well known audio I/O APIs/<br><br></div><div>basically, EVERYTHING works this way. You get a buffer's worth of data/space to read/write while the other buffer is being recorded/played. You get told to work with a buffer, you don't get to decide when.<br><br></div><div>ALSA and JACK add an additional wrinkle that it is possible to configure for more than 2 buffers, but in general, with a well designed audio interface and reasonably sensible motherboards, there's never a particularly good reason for d<br></div></div></div></div>