<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Feb 20, 2014 at 5:32 PM, Stefano D'Angelo <span dir="ltr"><<a href="mailto:zanga.mail@gmail.com" target="_blank">zanga.mail@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi all,<br>
<br>
Let's say I have a client that introduces an amount of latency that's<br>
variable at runtime and potentially unbounded. From JACK's docs it<br>
seems that you need to recompute the min/max latencies in the latency<br>
callback that's called "by the server" whenever it feels like, but you<br>
can force that by calling jack_recompute_total_latencies (right?).<br>
<br>
The problem is, you are advised to call this last function only after<br>
calling jack_port_set_latency_range(), which you should only call in<br>
the latency callback, which may be called next month... am I dumb<br>
(probably) or is there a deadly loop?<br></blockquote><div><br></div><div>the latency callback will be issued (twice, once for upstream, once for downstream) after one of two things happens:<br><br></div><div>   * the graph changes<br>
</div><div>   * a client calls jack_recompute_total_latencies()<br><br></div><div>you would call the latter if something happens that alters your clients own latency (e.g the change to some parameter of an algorithm that causes your client to change its latency). then you wait for the latency callback and reset your port latencies.<br>
</div><div> <br><br></div></div><br></div></div>