Jorn, i&#39;m not that far into it yet, and have no coding experience or mathematical degree to back me up. :) Just a former orchestral musician and composer trying to make his way, who has to use his ears, and a slide rule, to work things out.<br>
<br>As soon as i know what 2nd level ambisonics are, i&#39;ll have a better idea though. :)<br><br>Anyway, back to the books........<br><br>Alex.<br><br><div class="gmail_quote">On Tue, Jan 13, 2009 at 6:28 PM, Jörn Nettingsmeier <span dir="ltr">&lt;<a href="mailto:nettings@folkwang-hochschule.de">nettings@folkwang-hochschule.de</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="Ih2E3d">alex stone wrote:<br>
&gt; Jorn, thanks for feedback. I&#39;ve just tried one of Fon&#39;s amb plugs, and<br>
&gt; it repeatedly crashed ardour, so i think i&#39;d better fix that before<br>
&gt; going further.<br>
<br>
</div>interesting. i&#39;ve never had problems with those plugins in ardour. which<br>
specifically? and which ardour version?<br>
<div class="Ih2E3d"><br>
&gt; As for mike bleed, it&#39;s not a full multimix of pseudo mic blend, but<br>
&gt; more a &#39;hint&#39; of signal from adjacent instruments. It&#39;s artifical, imho,<br>
&gt; to completely remove any resonant blend of adjacent instruments, and i<br>
&gt; already have a modicum of success in terms of &#39;more lifelike&#39; response<br>
&gt; using this method. I&#39;m also using orchestral samples here, not a live<br>
&gt; orchestra, so i&#39;m keen to explore just how far we can get down the<br>
&gt; &#39;real&#39; road, before limitations prevail.<br>
<br>
</div>i see.<br>
<div class="Ih2E3d"><br>
&gt; As an aside to this, the VSL orchestral sample library team have already<br>
&gt; started a project not dissimilar to this, called MIR, so the concept is<br>
&gt; not just mine, or even theirs... :)<br>
&gt;<br>
&gt;<br>
&gt; I knew i was kinda hopeful when i asked about cutting an impulse into<br>
&gt; chunks, so i&#39;m not surprised at all.<br>
&gt;<br>
&gt; Now to get this Amb problem sorted out.<br>
<br>
</div>yeah, i&#39;d be interested to hear how it turns out. if you find the time,<br>
post your findings to LAU.<br>
<br>
fwiw, i&#39;m just working on a somewhat related project. i have a<br>
multi(close)miked recording of an organ concert with three spatially<br>
discrete organs and a few hamasaki signals, and i&#39;m trying to shoehorn<br>
those into a spatially correct and pleasant 2nd order ambisonic mix in<br>
full 3d. i&#39;ve taken a leaf from your book and i&#39;m applying individual<br>
delays to each microphone to correct the distance to the (virtual)<br>
listening position i&#39;m mixing for, and i&#39;ve measured the source<br>
positions in azimuth and elevation to be able to pan them correctly.<br>
results are quite enjoyable so far, but i hope to be able to bribe the<br>
organist to play some excerpts for me again, so that i can take a<br>
soundfield recording for reference... the results will be presented in a<br>
paper on LAC 2009.<br>
<br>
have you considered publishing your results as well? the lac paper<br>
deadline is still open iirc.<br>
<br>
regards,<br>
<font color="#888888"><br>
jörn<br>
</font><div class="Ih2E3d"><br>
<br>
<br>
<br>
&gt; Alex.<br>
&gt;<br>
&gt;<br>
&gt; On Sun, Jan 4, 2009 at 1:32 PM, Jörn Nettingsmeier<br>
&gt; &lt;<a href="mailto:nettings@folkwang-hochschule.de">nettings@folkwang-hochschule.de</a><br>
</div><div><div></div><div class="Wj3C7c">&gt; &lt;mailto:<a href="mailto:nettings@folkwang-hochschule.de">nettings@folkwang-hochschule.de</a>&gt;&gt; wrote:<br>
&gt;<br>
&gt; &nbsp; &nbsp; alex stone wrote:<br>
&gt; &nbsp; &nbsp; &gt; Ok, this might be a bit of curly question, and as i don&#39;t know if this<br>
&gt; &nbsp; &nbsp; &gt; is possible, either valid or not.<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; The subject is placement, and pertains to orchestral recording.<br>
&gt; &nbsp; &nbsp; (My own<br>
&gt; &nbsp; &nbsp; &gt; work composed within the box with linuxsampler, from midi in RG, and<br>
&gt; &nbsp; &nbsp; &gt; recorded in Ardour.)<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; I&#39;d like to place my instruments as close as possible to an orchestral<br>
&gt; &nbsp; &nbsp; &gt; setup, in terms of recorded sound. That is, once i&#39;ve recorded,<br>
&gt; &nbsp; &nbsp; i&#39;d like<br>
&gt; &nbsp; &nbsp; &gt; to use convolution and other tools to &#39;correctly&#39; place instruments<br>
&gt; &nbsp; &nbsp; &gt; within the overall soundscape.<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; example:<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; With the listener sitting 10 metres back from the stage, and<br>
&gt; &nbsp; &nbsp; facing the<br>
&gt; &nbsp; &nbsp; &gt; conductor (central) my 1st violins are on the listener&#39;s left. Those<br>
&gt; &nbsp; &nbsp; &gt; first violins occupy a portion of the overall soundscape from a point<br>
&gt; &nbsp; &nbsp; &gt; approximately 2 metres to the left of the conductor, to an outside<br>
&gt; &nbsp; &nbsp; left<br>
&gt; &nbsp; &nbsp; &gt; position, approximately 10 metres from the conductor, and &nbsp;with &nbsp;8<br>
&gt; &nbsp; &nbsp; desks<br>
&gt; &nbsp; &nbsp; &gt; (2 players per desk) about &nbsp;4 metres deep at the section&#39;s deepest<br>
&gt; &nbsp; &nbsp; &gt; point, in the shape of a wedge, more or less. That&#39;s the pan width of<br>
&gt; &nbsp; &nbsp; &gt; the section.<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; Now as i understand it, a metre represents approximately 3ms, so<br>
&gt; &nbsp; &nbsp; &gt; calculating the leading edge of the section across the stage as<br>
&gt; &nbsp; &nbsp; &#39;zero&#39;,<br>
&gt; &nbsp; &nbsp; &gt; the first violin players the furthest in depth from the front of the<br>
&gt; &nbsp; &nbsp; &gt; stage, should, in theory, (and i know this is approximate only, as<br>
&gt; &nbsp; &nbsp; i sat<br>
&gt; &nbsp; &nbsp; &gt; as a player in orchestras for some years, and understand the<br>
&gt; &nbsp; &nbsp; instinctive<br>
&gt; &nbsp; &nbsp; &gt; timing compensation that goes on) play about 12ms later than those at<br>
&gt; &nbsp; &nbsp; &gt; the front. Using the ears, and experimenting, this actually translates<br>
&gt; &nbsp; &nbsp; &gt; as about 6ms, before the sound becomes unrealistic, using layered<br>
&gt; &nbsp; &nbsp; violin<br>
&gt; &nbsp; &nbsp; &gt; samples, both small section and solo. (highly subjective i know, but i<br>
&gt; &nbsp; &nbsp; &gt; only have my own experience as a player and composer to fall back<br>
&gt; &nbsp; &nbsp; on here.)<br>
&gt;<br>
&gt; &nbsp; &nbsp; make sure that you are using different samples for each desk if you use<br>
&gt; &nbsp; &nbsp; individual delays, otherwise you will introduce comb filtering<br>
&gt; &nbsp; &nbsp; artefacts.<br>
&gt; &nbsp; &nbsp; but i doubt these delays will have any perceptible benefit.<br>
&gt;<br>
&gt; &nbsp; &nbsp; &gt; A violin has it&#39;s own unique characteristics in distribution of sound<br>
&gt; &nbsp; &nbsp; &gt; emanating from the instrument. The player sits facing the<br>
&gt; &nbsp; &nbsp; conductor, and<br>
&gt; &nbsp; &nbsp; &gt; the bulk of the overall sound goes up, at an angle, at more or less<br>
&gt; &nbsp; &nbsp; &gt; 30degrees towards the ceiling to a &#39;point&#39; equivalent to almost<br>
&gt; &nbsp; &nbsp; directly<br>
&gt; &nbsp; &nbsp; &gt; over the listener&#39;s right shoulder. Naturally &nbsp;the listener<br>
&gt; &nbsp; &nbsp; &#39;hears&#39; the<br>
&gt; &nbsp; &nbsp; &gt; direct sound most prominently, (both with ears, and the &#39;visual<br>
&gt; &nbsp; &nbsp; &gt; perception&#39; he gains from listening with his eyes.) Secondly, the<br>
&gt; &nbsp; &nbsp; violin<br>
&gt; &nbsp; &nbsp; &gt; also sounds, to a lesser degree, downwards, and in varying<br>
&gt; &nbsp; &nbsp; proportions,<br>
&gt; &nbsp; &nbsp; &gt; in a reasonably &#39;spherical&#39; sound creation model, with the possible<br>
&gt; &nbsp; &nbsp; &gt; exception of &nbsp;the sound hitting the player&#39;s body, and those in his<br>
&gt; &nbsp; &nbsp; &gt; immediate vicinity. (and other objects, like stands, sheet music, etc,<br>
&gt; &nbsp; &nbsp; &gt; all playing a part too.)<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; I&#39;ve experimented with this quite a bit, and the best result seems to<br>
&gt; &nbsp; &nbsp; &gt; come from a somewhat inadequate, but acceptable, computational model<br>
&gt; &nbsp; &nbsp; &gt; based on using, you guessed it, the orchestral experience ears.<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; So i take one &#39;hall&#39; impulse, and apply it to varying degrees, mixed<br>
&gt; &nbsp; &nbsp; &gt; with as precise a pan model as possible (and i use multiple desks to<br>
&gt; &nbsp; &nbsp; &gt; layer with,more or less, so there&#39;s a reasonably accurate<br>
&gt; &nbsp; &nbsp; depiction of a<br>
&gt; &nbsp; &nbsp; &gt; pan placed section, instead of the usual pan sample model of either<br>
&gt; &nbsp; &nbsp; &gt; shifting the section with a stereo pan, or the inadequate right<br>
&gt; &nbsp; &nbsp; channel<br>
&gt; &nbsp; &nbsp; &gt; down, left channel up method.)<br>
&gt;<br>
&gt; &nbsp; &nbsp; phew! ambitious!<br>
&gt;<br>
&gt; &nbsp; &nbsp; &gt; to make this more complicated (not by intent, i assure you), i&#39;m<br>
&gt; &nbsp; &nbsp; &gt; attempting to add a degree of pseudo mike bleed, from my 1st violins,<br>
&gt; &nbsp; &nbsp; &gt; into the cellos sitting deeper on the stage, and in reduced amounts to<br>
&gt; &nbsp; &nbsp; &gt; the violas and second violins sitting on &nbsp;the other side of the<br>
&gt; &nbsp; &nbsp; digital<br>
&gt; &nbsp; &nbsp; &gt; stage.<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; All of this is with the intent of getting as as lifelike a sound as<br>
&gt; &nbsp; &nbsp; &gt; possible from my digital orchestra.<br>
&gt;<br>
&gt; &nbsp; &nbsp; why simulate mike bleed? i thought you were after creating a &quot;true&quot;<br>
&gt; &nbsp; &nbsp; orchestra sound, not one including all unwanted multi-miking<br>
&gt; &nbsp; &nbsp; artefacts... i&#39;d rather concentrate on instruments and room.<br>
&gt;<br>
&gt; &nbsp; &nbsp; &gt; The questions:<br>
&gt; &nbsp; &nbsp; &gt;<br>
&gt; &nbsp; &nbsp; &gt; In terms of convolution, , can i &#39;split&#39; a convolution impulse<br>
&gt; &nbsp; &nbsp; with some<br>
&gt; &nbsp; &nbsp; &gt; sort of software device, as to emulate the varying degrees of<br>
&gt; &nbsp; &nbsp; spherical<br>
&gt; &nbsp; &nbsp; &gt; sound from instruments as described above?<br>
&gt;<br>
&gt; &nbsp; &nbsp; you could get a b-format response from every place in the orchestra<br>
&gt; &nbsp; &nbsp; (with all other musicians sitting there, for damping), and then convolve<br>
&gt; &nbsp; &nbsp; it with the violin (which would also have to be shoehorned to b-format,<br>
&gt; &nbsp; &nbsp; simulating the desired radiation pattern).<br>
&gt; &nbsp; &nbsp; but if you have the room and the orchestra, you might as well let them<br>
&gt; &nbsp; &nbsp; play your stuff ;)<br>
&gt;<br>
&gt; &nbsp; &nbsp; &gt; So, one impulse (I use Jconv by default, as it does a great job, far<br>
&gt; &nbsp; &nbsp; &gt; better than most gui bloated offerings in the commercial world)<br>
&gt; &nbsp; &nbsp; that can<br>
&gt; &nbsp; &nbsp; &gt; be, by way of sends, and returns, be &#39;split&#39; or manipulated not<br>
&gt; &nbsp; &nbsp; only in<br>
&gt; &nbsp; &nbsp; &gt; terms of length of impulse, but fed as &#39;panned&#39; so as to put more<br>
&gt; &nbsp; &nbsp; &gt; impulse &#39;up&#39;, less impulse &#39;down&#39; and just a twitch of impulse<br>
&gt; &nbsp; &nbsp; &#39;forward&#39;<br>
&gt; &nbsp; &nbsp; &gt; of the player, with near enough to none on the sound going back<br>
&gt; &nbsp; &nbsp; into the<br>
&gt; &nbsp; &nbsp; &gt; player.<br>
&gt;<br>
&gt; &nbsp; &nbsp; i&#39;m not sure i understand 100%, but you might want to look into<br>
&gt; &nbsp; &nbsp; ambisonics for that. ardour can do it just fine, all you need to do is<br>
&gt; &nbsp; &nbsp; bypass the panners and use fons&#39; AMB plugins instead. as to target<br>
&gt; &nbsp; &nbsp; format, you could use UHJ stereo. if you desire 5.1, you might want to<br>
&gt; &nbsp; &nbsp; consider working in second order ambisonics.<br>
&gt;<br>
&gt; &nbsp; &nbsp; &gt; I&#39;ve written this rather clumsily, but i hope some of you experts may<br>
&gt; &nbsp; &nbsp; &gt; understand what i&#39;m trying to achieve here.<br>
&gt; &nbsp; &nbsp; &gt; Can the impulse be split down it&#39;s middle, separating left from right,<br>
&gt; &nbsp; &nbsp; &gt; aurally speaking, and if this is possible, can i split the impulse<br>
&gt; &nbsp; &nbsp; into<br>
&gt; &nbsp; &nbsp; &gt; &#39;wedges&#39; emulating that sphere i wrote of, more or less?<br>
&gt;<br>
&gt; &nbsp; &nbsp; no, i don&#39;t think so. you will need a spatial impulse response. the<br>
&gt; &nbsp; &nbsp; simplest way to obtain one is to use a soundfield microphone (or a<br>
&gt; &nbsp; &nbsp; tetramic, for that matter).<br>
&gt;<br>
&gt; &nbsp; &nbsp; &gt; if there&#39;s a way to do this, then i&#39;m all ears, as my mike bleed<br>
&gt; &nbsp; &nbsp; &gt; experiments suffer from a &#39;generic&#39; impulse per section affecting<br>
&gt; &nbsp; &nbsp; &gt; everything to the same degree, including the instruments bled in. I<br>
&gt; &nbsp; &nbsp; &gt; should note here, this is not about gain, but a wedge of impulse, cut<br>
&gt; &nbsp; &nbsp; &gt; out of the overall chunk, that represents a &#39;window&#39; or pan section of<br>
&gt; &nbsp; &nbsp; &gt; the whole.<br>
&gt;<br>
&gt; &nbsp; &nbsp; i still don&#39;t understand why you&#39;re after &quot;mike bleed&quot;.<br>
&gt;<br>
&gt; &nbsp; &nbsp; &gt; I suppose an analogy for the chunk of impulse idea would be to<br>
&gt; &nbsp; &nbsp; stretch a<br>
&gt; &nbsp; &nbsp; &gt; ribbon across a stage, and cut a metre out of the middle. That metre<br>
&gt; &nbsp; &nbsp; &gt; would be the bit i&#39;d use, as a portion of the whole, in an aural<br>
&gt; &nbsp; &nbsp; &gt; soundscape, to manipulate, or place, instruments, to a finer<br>
&gt; &nbsp; &nbsp; degree, in<br>
&gt; &nbsp; &nbsp; &gt; the attempt to create a more realistic &#39;3d&#39; effect for the listener.<br>
&gt; &nbsp; &nbsp; &gt; That metre along with other cut out sections of the impulse soundscape<br>
&gt; &nbsp; &nbsp; &gt; could help me introduce a more....&#39;human&#39; element to a layered<br>
&gt; &nbsp; &nbsp; &gt; instrument section.<br>
&gt;<br>
&gt; &nbsp; &nbsp; yeah, well, *if* we had a way of capturing a sound field completely over<br>
&gt; &nbsp; &nbsp; such a vast area, we would all be very happy indeed. it can be recreated<br>
&gt; &nbsp; &nbsp; using wave field synthesis or very high order ambisonics, but currently<br>
&gt; &nbsp; &nbsp; there is no way of capturing it, other than measuring a set of<br>
&gt; &nbsp; &nbsp; individual points in that sound field.<br>
&gt;<br>
&gt;<br>
&gt; &nbsp; &nbsp; hth,<br>
&gt;<br>
&gt; &nbsp; &nbsp; jörn<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
<br>
</div></div></blockquote></div><br>