<div dir="ltr">Hi guys, sorry for the delay in responding! I found interesting this idea of using guitar samples to base the pitch/onset detection, but I think this would limit a bit the idea of plugin to guitars only right? Plus, i don't know anything about machine learning too hahaha, anyway, i think its a good idea, but for this plugin I was trying to do something more general. To Hermann, in this implementation I left the algorithm to choose at runtime, the algorithms are briefly described in these links (at 'methods') :<br>

<br>Onset:<br><a href="http://aubio.org/manpages/latest/aubioonset.1.html">http://aubio.org/manpages/latest/aubioonset.1.html</a><br><br>Pitch:<br><a href="http://aubio.org/manpages/latest/aubiopitch.1.html">http://aubio.org/manpages/latest/aubiopitch.1.html</a> <br>

<br>I tested the plugin with both zynaddsubfx and a guitar, and in each situation a pitch method worked better (some methods didn't recognize the lowest frequencies), didn't feel much difference in the onset methods variation. Have you guys tryed aubio lib yet?<br>

<br>Att,<div><br></div><div>Lucas<br><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">2014-05-11 22:44 GMT-03:00 Rafael Vega <span dir="ltr"><<a href="mailto:email.rafa@gmail.com" target="_blank">email.rafa@gmail.com</a>></span>:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote"><div class=""><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div><div><br>
<br>
</div></div>I would be interested in trying a different approach to this problem.<br>
Namely using machine learning. Would the guitar players on this list<br>
be willing to provide training data? I.e. audio files of you playing<br>
single notes with an additional text file describing the played<br>
pitches. A format like<br>
<br>
frame-number start 440<br>
frame-number end<br>
<br>
e.g. you have an audio clip at 1000hz sampling rate where an 440hz A<br>
starts on frame 500 (at 0.5 secs) that lasts to frame 2500 (so, 2 secs<br>
duration):<br>
<br>
500 start 440<br>
2500 end<br></blockquote><div><br></div></div><div>This would be an awesome project. I'm very interested. I can provide some training files and a bit of help coding or other supporting tasks. I don't know anything about machine learning, though.</div>



<div><br></div></div>
</div></div>
<br>_______________________________________________<br>
Linux-audio-dev mailing list<br>
<a href="mailto:Linux-audio-dev@lists.linuxaudio.org">Linux-audio-dev@lists.linuxaudio.org</a><br>
<a href="http://lists.linuxaudio.org/listinfo/linux-audio-dev" target="_blank">http://lists.linuxaudio.org/listinfo/linux-audio-dev</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br>Lucas Conejero Takejame<div>Engenharia Elétrica - ênfase em computação</div><div>Escola Politécnica - USP</div>
</div>