Ok, this might be a bit of curly question, and as i don&#39;t know if this is possible, either valid or not.<br><br>The subject is placement, and pertains to orchestral recording. (My own work composed within the box with linuxsampler, from midi in RG, and recorded in Ardour.)<br>
<br>I&#39;d like to place my instruments as close as possible to an orchestral setup, in terms of recorded sound. That is, once i&#39;ve recorded, i&#39;d like to use convolution and other tools to &#39;correctly&#39; place instruments within the overall soundscape.<br>
<br><br>example:<br><br>With the listener sitting 10 metres back from the stage, and facing the conductor (central) my 1st violins are on the listener&#39;s left. Those first violins occupy a portion of the overall soundscape from a point approximately 2 metres to the left of the conductor, to an outside left position, approximately 10 metres from the conductor, and&nbsp; with&nbsp; 8 desks (2 players per desk) about&nbsp; 4 metres deep at the section&#39;s deepest point, in the shape of a wedge, more or less. That&#39;s the pan width of the section.<br>
<br>Now as i understand it, a metre represents approximately 3ms, so calculating the leading edge of the section across the stage as &#39;zero&#39;, the first violin players the furthest in depth from the front of the stage, should, in theory, (and i know this is approximate only, as i sat as a player in orchestras for some years, and understand the instinctive timing compensation that goes on) play about 12ms later than those at the front. Using the ears, and experimenting, this actually translates as about 6ms, before the sound becomes unrealistic, using layered violin samples, both small section and solo. (highly subjective i know, but i only have my own experience as a player and composer to fall back on here.)<br>
<br><br>A violin has it&#39;s own unique characteristics in distribution of sound emanating from the instrument. The player sits facing the conductor, and the bulk of the overall sound goes up, at an angle, at more or less 30degrees towards the ceiling to a &#39;point&#39; equivalent to almost directly over the listener&#39;s right shoulder. Naturally&nbsp; the listener &#39;hears&#39; the direct sound most prominently, (both with ears, and the &#39;visual perception&#39; he gains from listening with his eyes.) Secondly, the violin also sounds, to a lesser degree, downwards, and in varying proportions, in a reasonably &#39;spherical&#39; sound creation model, with the possible exception of&nbsp; the sound hitting the player&#39;s body, and those in his immediate vicinity. (and other objects, like stands, sheet music, etc, all playing a part too.)<br>
<br>I&#39;ve experimented with this quite a bit, and the best result seems to come from a somewhat inadequate, but acceptable, computational model based on using, you guessed it, the orchestral experience ears.<br><br>So i take one &#39;hall&#39; impulse, and apply it to varying degrees, mixed with as precise a pan model as possible (and i use multiple desks to layer with,more or less, so there&#39;s a reasonably accurate depiction of a pan placed section, instead of the usual pan sample model of either shifting the section with a stereo pan, or the inadequate right channel down, left channel up method.)<br>
<br>to make this more complicated (not by intent, i assure you), i&#39;m attempting to add a degree of pseudo mike bleed, from my 1st violins, into the cellos sitting deeper on the stage, and in reduced amounts to the violas and second violins sitting on&nbsp; the other side of the digital stage.<br>
<br>All of this is with the intent of getting as as lifelike a sound as possible from my digital orchestra.<br><br>The questions:<br><br>In terms of convolution, , can i &#39;split&#39; a convolution impulse with some sort of software device, as to emulate the varying degrees of spherical sound from instruments as described above?<br>
<br>So, one impulse (I use Jconv by default, as it does a great job, far better than most gui bloated offerings in the commercial world) that can be, by way of sends, and returns, be &#39;split&#39; or manipulated not only in terms of length of impulse, but fed as &#39;panned&#39; so as to put more impulse &#39;up&#39;, less impulse &#39;down&#39; and just a twitch of impulse &#39;forward&#39; of the player, with near enough to none on the sound going back into the player.<br>
<br>I&#39;ve written this rather clumsily, but i hope some of you experts may understand what i&#39;m trying to achieve here.<br>Can the impulse be split down it&#39;s middle, separating left from right, aurally speaking, and if this is possible, can i split the impulse into &#39;wedges&#39; emulating that sphere i wrote of, more or less? <br>
<br>if there&#39;s a way to do this, then i&#39;m all ears, as my mike bleed experiments suffer from a &#39;generic&#39; impulse per section affecting everything to the same degree, including the instruments bled in. I should note here, this is not about gain, but a wedge of impulse, cut out of the overall chunk, that represents a &#39;window&#39; or pan section of the whole.<br>
<br>This might seem somewhat pedantic in recording terms, but i&#39;m trying to build a model, per &#39;hall&#39; and create half a dozen templates to represent different size ensembles in different halls.<br>So my small string section hall template might be a small church or performance room, like a library, or dancing hall. I would then only need to be creative with where i put my &#39;human&#39; soloists, as emulators of slightly different interpretations of where note start and finish, velocity variation, etc....., and not have to reconstruct a convoluted model each time, for......my particular orchestra. (tongue firmly in cheek here.)<br>
<br>Any help would be appreciated. I&#39;m open to suggestions of placement convolution models, etc, but would prefer to use Jconv, as it works all day every day, and would be a constant across all templates.<br><br>I suppose an analogy for the chunk of impulse idea would be to stretch a ribbon across a stage, and cut a metre out of the middle. That metre would be the bit i&#39;d use, as a portion of the whole, in an aural soundscape, to manipulate, or place, instruments, to a finer degree, in the attempt to create a more realistic &#39;3d&#39; effect for the listener. That metre along with other cut out sections of the impulse soundscape could help me introduce a more....&#39;human&#39; element to a layered instrument section.<br>
<br>I still rue the day orchestral sample devs decided to record sections at a time. This would have been so much easier if they&#39;d recorded a number of desks for each section instead.<br><br>Alex.<br><br>p.s. I&#39;m having a modest degree of success using Ardour sends, as a mike bleed template. Lot of work, and a lot of sends, but it&#39;s slowly coming together, and has reached the stage where i no longer think it&#39;s impossible.....<br>
<br><br><br><br><br><br><br>