Forum für allgemeine Fragen und Smalltalk
16 posts
Page 1 of 1
Waves Abbey Road Studio 3

Ich wollte mal wissen, ob das jemand von euch schon benutzt oder zumindest mal kurz ausprobiert hat.

Die Idee an sich ist ja natürlich erstmal der Hammer schlechthin. Gerade das Tracking über NX ist dann ja noch das Sahnehäubchen oben drauf. Aber so geil die Idee an sich ja eigentlich doch ist, stellt sich mir bei aller Begeisterung noch eine Frage. Vielleicht auch nur weil ich den Nutzen noch nicht ganz verstanden habe bzw. die Art wie, wo und wann (auch in der Kette) man es am besten einsetzen sollte.

Angenommen ich würde das nutzen und es funktioniert genauso wie beschrieben, würde ich dann ja nur den Studio 3 Sound hören. Ich behaupte ja nicht, dass das Abbey Road Studio :thumbdown: klingt, aber wenn ich z.B unter Sonarworks mixe, arrangiere und an allem bis zum Finale rumschraube, hätte ich ja spätestens dann beim Master (angenommen ich gehe dafür in das trendige Abbey Road Studio 3) ja das Problem, dass ich den akkuraten Headphone Mix auf einmal in einer anderen Umgebung höre, von der ich jetzt einfach mal wage zu behaupten, dass sie ihre Eigenheiten hat und über einen eher weniger ausgeprägten linearen Frequenzgang verfügt, als wie man es unter der Benutzung von Sonarworks erwarten würde. Würde ich also von Anfang an unter Abbey Road Studio 3 ein Projekt fahren und Sonarworks als letztes in den Post-Insert setzen, könnte ich mir ARS3 doch so gesehen wieder sparen, da ARS3 ja auch kein Kalibrierungsprofil für Kopfhörer hat. Sehe ich das also richtig, dass ich Sonarworks vor Abbey Road Studio 3 insertieren müsste und überhaupt: Wie würdet ihr denn eigentlich dieses neue PlugIn von Waves benutzen und an welchem Punkt insertieren? Würdet ihr es kombinieren oder nur zum Mastern einsetzen oder lieber doch von Anfang an??? Wie benutzt man es am Besten?
User avatar
by philippmller2 on Mon Jul 15, 2019 11:30 am
Wytse Gerichhausen fasst das ganze Thema über das "Abbey Road Studio 3" Plugin ganz gut zu sammen. Ich würde auch von solch einem Plugin abraten. :) Ich würde an deiner Stelle lieber bei deinem Sonarworks als letzten Insert auf deinem Master bleiben.

phpBB [video]
Last edited by philippmller2 on Tue Jul 16, 2019 9:28 am, edited 1 time in total.

Image Image Image

Betriebssystem: Windows 10 Pro 64-bit, CPU: Intel Core i7 6800K @ 3.40GHz, RAM: Kingston 32,0GB DDR4-2132 (1066 MHz), Motherboard: Gigabyte Technology Co. Ltd. X99P-SLI-CF, Grafik: 4095 MB Inno3D iChill Nvidia GeForce GTX 1070, Audio: Steinberg UR44, Software: Studio One 4 Professional, Notion 6, Hardware: Faderport 1, Faderport 16, Akai MPD 26, Studiologic Acuna 88
User avatar
by sebastianholtzer on Tue Jul 16, 2019 12:42 am
Geil, Danke. :mrgreen:
Ich zieh mir das mal rein. Und melde mich dann nochmal heute Abend.

philippmller2 wroteWytse Gerichhausen fast das ganze Thema über das "Abbey Road Studio 3" Plugin ganz gut zu sammen. Ich würde auch von solch einem Plugin abraten. :) Ich würde an deiner Stelle lieber bei deinem Sonarworks als letzten Insert auf deinem Master bleiben.


Edit:
Ich habe es jetzt gesehen. Ich finde seine Videos nebenbei gesagt übrigens immer sehr unterhaltsam. Was mir im Video aufgefallen ist, ist dass sie doch Kopfhörer-Profile haben. Sein Fazit hat in mir allerdings gerade eine Kontroverse ausgelöst. Er spricht ja davon, dass der Mix nirgendwo gleich klingen würde. Solange die Headphone Profile hinterlegt sind gehe ich erstmal davon aus, dass es nach dem Prinzip von Sonarworks funktionieren würde/soll - allerdings mit einem nonlineraren Frequenzgang, auf dem ich dann abmische, weil das Studio ja nun mal ein Studio ist.
Gehen wir jetzt mal in die 90er oder sogar die 80er zurück, wären wir eigentlich wieder an diesem Punkt, als es diese Technik noch nicht gab. Folglich hatte er dann ja recht: Das PlugIn ist so gesehen ein Rückschritt und wohl eher ein Verkaufsargument mit gutem Marketing. Dafürsprechen würden jetzt allerdings die unzähligen Records, der Name und das übliche was weiß ich „BlaBlaBla“.
Aber letztendlich klingt ein Raum im Raum dann doch eher als keine so gute Idee. Vor allem wenn du aus Versehen nur noch von weit entfernt abhörst ohne das zu merken, falls du den Knopf vergessen würdest. Ich denke solange man es dabei lässt, zwischen Sonarworks und ARS3 umzuschalten, um mal zu überprüfen wie es sich in dem Abhörraum anhören würde, sollte das wohl der effektivste Nutzen sein und vor allem erfrischend für denjenigen, der sich unter Kopfhörern quälen muss.

Ich denke ich werde es mal ausprobieren. Sobald es hier einen gibt, der mal einen Vergleichstrack hat, den er jeweils unter Sonarworks und ASR3 abgemischt hat, würde es mich freuen mal das Ergebnis für den eigenen Eindruck begutachten zu dürfen.
User avatar
by philippmller2 on Tue Jul 16, 2019 9:40 am
Am aussagekräftigsten gegen das Plugin, und da hat er vollkommen recht, ist als er auf die physikalischen Merkmale, Konstruktion sowie Materialien der Boxen eingegangen ist, die in diesem Berühmten Studio 3 von Abbey Road installiert sind. Das kannst du nicht mit einem Plugin Modulieren. Das macht schlichtweg keinen Sinn! 😊

Am meisten Sinn macht es deinen Raum einzumessen und mit akustischen Elementen auszustatten. Diffusoren, Absorber, Bassfallen. Dazu wirkt Sonarworks dann noch einen kleinen Teil dazu und du hast im Idealfall ein gutes Studio. 😊

Image Image Image

Betriebssystem: Windows 10 Pro 64-bit, CPU: Intel Core i7 6800K @ 3.40GHz, RAM: Kingston 32,0GB DDR4-2132 (1066 MHz), Motherboard: Gigabyte Technology Co. Ltd. X99P-SLI-CF, Grafik: 4095 MB Inno3D iChill Nvidia GeForce GTX 1070, Audio: Steinberg UR44, Software: Studio One 4 Professional, Notion 6, Hardware: Faderport 1, Faderport 16, Akai MPD 26, Studiologic Acuna 88
User avatar
by sebastianholtzer on Tue Jul 16, 2019 2:20 pm
philippmller2 wroteAm aussagekräftigsten gegen das Plugin, und da hat er vollkommen recht, ist als er auf die physikalischen Merkmale, Konstruktion sowie Materialien der Boxen eingegangen ist, die in diesem Berühmten Studio 3 von Abbey Road installiert sind. Das kannst du nicht mit einem Plugin Modulieren. Das macht schlichtweg keinen Sinn! 😊

Das glaube ich auch. Allerdings hatte ich gedacht, dass die sowas simulieren, indem sie z.B. einen Ton abspielen und dann das Verhalten aufnehmen, analysieren und daraus dann errechnen, wie sich "das Material" verhält und dementsprechend den Klang wiedergibt. So in die Richtung von "Physical Modeling". Kennst Du Piano V2 von Arturia? Ich würde jetzt nicht sagen, dass man das voll in die Tonne treten kann. Ich könnte es von einem echten Klavier ehrlich gesagt nicht unterscheiden. V1 klang nicht so prall, das stimmt schon - V2 dafür aber richtig gut. Vielleicht gibt es auch noch bessere Beispiele dafür dass Physical Modeling wirklich geniales Zeugs simulieren kann.
Ich wüsste ehrlich gesagt zu gerne was da unter der Haube im ARS3 passiert. Vielleicht existiert dort zusätzlich auch noch eine eigene IR für diesen Raum. Zumindest glaube ich nicht, dass sie das mal so eben an einem Wochenende gemacht haben, um ein bisschen auf die Kacke zu hauen und dem User letztendlich dann nur das Geld aus der Tasche zu ziehen. Mindestens zwei Wochen werden es schon gewesen sein. :mrgreen:
Was aber ganz schön peinlich zu ein scheint ist das Tracking mit NX. Ich habe nach dem Video eines gesehen, wo ein SO-Nutzer das Tracking benutzt. Klappt hörbar nicht ganz ab einem bestimmten Winkel. Das hat dann dem Gesamteindruck schon irgendwie geschadet und mich immerhin zum Lachen gebracht… :readit:
Dann bin ich auf einen Thread bei GearzLutz gestoßen, wo man echt geteilter Meinungen ist. Ein paar User lieben es und meinen den mega-transparenten Mix damit gemacht zu haben. Ich glaube das natürlich erstmal. Hinsichtlich der Kritik der anderen Nutzer werden 50% sicherlich just for fun ein bisschen Waves Bashing betrieben haben. Warum auch nicht?! Macht halt Spaß! Die restlichen hatten entweder keine Ahnung oder wussten es vielleicht wirklich besser. Kucke ich ins amerikanische Forum, sehe ich z.B. im CTC-1 Thread, dass die Leute Mix FX nicht peilen und den Console Shaper deshalb :thumbdown: finden. Andere wollen das Verhalten einfach nicht. Die haben also einen guten Grund dafür ihn nicht zu mögen. Ich meine die TG Mastering Chain und Vinyl sind echt gelungene AR Plugs. Ich kenne zwar nicht alle, aber zumindest sind nicht alle schlecht. Ich glaube das Teil ist eher für Leute die schon wegen Greta auf ihr Auto verzichten müssen und zum Abhören dann halt doch lieber nach London ins Studio jetten um den Fehler im Detail zu entdecken. :punk: Wer sich`s leisten kann…

philippmller2 wroteAm meisten Sinn macht es deinen Raum einzumessen und mit akustischen Elementen auszustatten. Diffusoren, Absorber, Bassfallen. Dazu wirkt Sonarworks dann noch einen kleinen Teil dazu und du hast im Idealfall ein gutes Studio. 😊
...und bist einen Haufen Kohle für Nichts los, sofern du es dir überhaupt leisten kannst und nicht in einem Pappkarton wohnst. :XD:
User avatar
by philippmller2 on Wed Jul 17, 2019 9:00 am
sebastianholtzer wrote...und bist einen Haufen Kohle für Nichts los, sofern du es dir überhaupt leisten kannst und nicht in einem Pappkarton wohnst. :XD:


Das kann nicht dein Ernst sein oder? :shock: Akustische Raumoptimierung ist das wichtigste in einem Studio, ohne guten Raum nützen dir die besten Boxen nicht viel… Klar es ist teuer keine Frage, aber „für nichts“ ist das definitiv nicht 😉

Image Image Image

Betriebssystem: Windows 10 Pro 64-bit, CPU: Intel Core i7 6800K @ 3.40GHz, RAM: Kingston 32,0GB DDR4-2132 (1066 MHz), Motherboard: Gigabyte Technology Co. Ltd. X99P-SLI-CF, Grafik: 4095 MB Inno3D iChill Nvidia GeForce GTX 1070, Audio: Steinberg UR44, Software: Studio One 4 Professional, Notion 6, Hardware: Faderport 1, Faderport 16, Akai MPD 26, Studiologic Acuna 88
User avatar
by sebastianholtzer on Wed Jul 17, 2019 10:27 am
philippmller2 wroteDas kann nicht dein Ernst sein oder? :shock:
Doch, aber nicht so wie Du es jetzt verstehst.

Ich wohne in einer Musikerfeindlichen Wohnung. Es ist eine Genossenschaftswohnung von der MGF in Farmsen in der August-Krogmann-Straße. Da wo damals die Demo war von Andreas Schacht. Warum die Wohnung hier noch bezahlbar ist (411,09€ + Wasser und Strom) liegt einmal daran, dass sie alt und von der Genossenschaft ist, meine (die) im EG erhebliche Mängel durch den Keller und Leitungsschächte hat und insgesamt mit Wänden aus Papier ausgestattet ist und man hier außerdem daran ist, einen sozialen Brennpunkt entstehen zu lassen.
Das würde somit einmal A hier keinen Sinn machen, B ist es ein Frage des Geldes, was bei mir nicht gerade so locker sitzt, dass ich das ohne weiteres planen könnte und C würde es meiner Nachbarin überhaupt nicht gefallen, da die neben den Wechselschichten auch noch Nachtschichten schieben muss soweit ich da informiert bin. Und da im Endeffekt ja auch nicht mit Profit zu rechnen wäre, würde es somit eigentlich nur verschwendetes Geld für eine Investition sein, die sich hier nicht einmal richtig nutzen lassen würde. Das kann ich also knicken hier und dafür gibt es gleich mehrere Gründe. Deshalb muss ich halt Kopfhörer benutzen und somit wäre Abbey Road Studio 3 eigentlich recht interessant für mich.

philippmller2 wroteaber „für nichts“ ist das definitiv nicht 😉
Eben. Genau da ist ja das Problem. Egal wie man es auslegt. :XD:

Ganz ehrlich gesagt weiß ich auch nicht was daran so toll sein soll, einen Mix mit Interferenzen oder irgendwelchen Raumresonanzen wiedergeben zu wollen. Die Wellen treffen doch spätestens ab 5.1 aufeinander und da es ein Raum ist, ist er nicht perfekt. Ganz egal was man mir da erzählen will: Das glaube ich nicht. Es gibt nicht den perfekten Raum. Außer im Weltall, nur da hörst du nichts. Oder gibt es wirklich den perfekten Raum??? Kann ich mir nicht vorstellen.
Jetzt kommt Waves und sagt:
"Hör mal...in diesem Raum sind Hits entstanden. Du armer Schlucker hast keinen und brauchst so einen Raum. Also Kauf dir unser PlugIn. Es hört sich geil an und du triffst beim Mixen garantiert die richtigen Entscheidungen".

Was die Kopfhörer Profile angeht, scheinen da wohl so einige zu sagen, dass Sonarworks das einfach besser kann - inklusive Dir. Jetzt aber frage ich Dich mal wo da jetzt genau der Denkfehler ist, wenn ich Sonarworks vor ASR3 als letztes Plug insertiere? Was verstehe ich da jetzt nicht mehr richtig? Umgekehrt, so wie es auch eigentlich soll (Sonarworks als letztes Plug) würde Sonarworks doch dann wieder den Frequenzgang ausgleichen und dann wäre das evtl. auch noch simulierte Verhalten der Membranen in den Monitoren doch auch futsch. Abgesehen davon glaube ich eh nicht, dass man das nicht nur auf Kopfhörern überhaupt exzellent bis gut wiedergeben/nachempfinden könnte, aber was genau will ASR3 denn jetzt eigentlich überhaupt sein? Ein Abhörraum mit super Akustik und feinsten Monitoren für fettesten Sound oder will es einfach nur Sonarworks ersetzen?
User avatar
by sebastianholtzer on Thu Jul 18, 2019 8:16 am
Also Philipp ich habe gerade eben nochmal in Ruhe das Inside the Abbey Road Studio 3 Plugin Video von Waves gekuckt und festgestellt, dass das PlugIn für Leute wie mich gemacht worden ist. Er sagt es soll unter Kopfhörern einen Eindruck Erwecken, wie sich u.a. das Panning usw. auf einer professionellen Abhöre auswirkt. Es will also nicht einfach nur Sonarworks ersetzen. Ich würde da auch zustimmen, denn wie gesagt halte ich das auch mit einem optimierten Raum für unmöglich wenn ich an die Headphone Edition denken muss. Ich werde es in den nächsten Tagen defintiv irgendwann mal testen und dem Teil eine Chance geben.
User avatar
by AriAhrendt on Thu Jul 18, 2019 8:45 am
Hab nur kurz mal das Video angeguckt, wo es um das eigentliche Produkt geht. Das ganze Vergangenheits-Legendär-Intro ist ja mehr Geschichtsunterricht statt Produktpresentation. Na jedenfalls zuck ich das jedes Mal zusammen, weil er ständig "Studio three" sagt und erwähnt. Und ich denk dann immer, MANN das ist doch falsch, das heißt "Studio One"!!!! :readit:

Ist mehr so eine Arbeitsplatzanekdote. :mrgreen:

Ari

Ari Ahrendt - Quality Assurance Specialist
PreSonus Software Ltd. - Hamburg
http://www.presonus.com/products/studio-one

Modern electronic Synth Pop........../..........Musicproduction, Support & coaching
http://www.denoisary.de/................./...........http://www.arimusik.de/

Windows 10 64-Bit, i7 6700k 4.0 GHz, 16GB RAM, 256GB SSD, Studio One 4 Professional 64-Bit
User avatar
by sebastianholtzer on Fri Jul 19, 2019 11:36 pm
:P :P :P
User avatar
by sebastianholtzer on Sat Jul 20, 2019 12:51 am
AriAhrendt wroteUnd ich denk dann immer, MANN das ist doch falsch, das heißt "Studio One"!!!! :readit:


Jetzt hast Du mich aber echt auf eine Idee gebracht.
Wer sagt denn, dass Mix-FX nicht das gleiche kann wie Sonarworks?

Die aktuellen Nachteile unter der Verwendung von Sonarworks sind ein zusätzliches PlugIn im Post-Insert das mit einer zusätzlichen Latenz von rund 120ms und mehr daherkommt. Wenn ich Mix-FX so programmiere, dass es das in Sonarworks ausgewählte Profile nur auf dem Main-Out umrechnet, spare ich doch theoretisch CPU als wenn ich das PlugIn benutzen würde. Wenn man jetzt nicht ganz so dreist vorgehen möchte, könnte man bei Sonarworks anklingeln und um eine Zusammenarbeit bitten, so dass diese Implementation in Mix-FX ausschließlich Kunden von Sonarworks zur Verfügung stehen könnte. Oder man macht das kurzerhand auf eigene Faust, steht dann aber vor dem Problem, dass es außerhalb der Headphone-Ecke ein Problem und erheblichen Mehraufwand wegen der Messungen für Raumakkustik und und und geben würde. Sehe ich es allerdings richtig, dürfte gerade PreSonus ein Interesse daran haben, dass deren Hardware in Sonarworks gelistet wird.
Die DAW der Zukunft könnte also ein entsprechendes Profil per Knopfdruck in Mix-FX laden. Im Endeffekt passiert ja nicht mehr als das was letztendlich in einem Equalizer passiert.
User avatar
by AriAhrendt on Sat Jul 20, 2019 1:07 am
Nee, Denkfehler.

Dort geht es um ein nachgeschaltetes Klangbild, was quasi außerhalb oder nach aller Technik passiert. Nämlich eine Raumsimulation. Mix Engine FX bilder aber Verhalten und Fehler von Mischkonsolen nach. Also direkt im Kabel, im Kondensator, in der Röhre jedes einzelnen Channels. Sogar separat und im Zusammenspiel mit anderen. etc. Das ist erstmal völlig raumunabhängig. Auch wäre das Quatsch sowas von Spur zu Spur separat zu behandeln. Also Mix FX sind hier total fehl am Platz.

Ari

Ari Ahrendt - Quality Assurance Specialist
PreSonus Software Ltd. - Hamburg
http://www.presonus.com/products/studio-one

Modern electronic Synth Pop........../..........Musicproduction, Support & coaching
http://www.denoisary.de/................./...........http://www.arimusik.de/

Windows 10 64-Bit, i7 6700k 4.0 GHz, 16GB RAM, 256GB SSD, Studio One 4 Professional 64-Bit
User avatar
by sebastianholtzer on Sat Jul 20, 2019 2:21 am
Das ist mir schon klar, aber wenn ich jetzt hingehe und Mix-FX quasi eine Erweiterung nur für den Post-Insert verpasse, die sich lediglich um die "Klangveränderung" am Ausgang kümmert und dort ein von einem Profil abhängigen Wert des Frequenzgangs korrigiert um auf ein optimales lineares Ergebnis zu kommen, wäre das doch eigentlich gar nicht mal so kompliziert als wenn Mix-FX auf einer Instanz Crosstalk und Drive auf 150Kanälen gleichzeitig berechnen müsste, oder?
Im Prinzip würde Mix-FX hier doch dann eigentlich nur umgekehrt funktionieren(?). Man füttert die Engine mit dem Profil der charakteristischen Wiedergabeeigenschaften des Frequenzgangs eines Gerätes. In diesem Fall wäre das ein Kopfhörer der Marke X und/oder ein Raum mit Monitoren. Die Engine soll am Ausgang dann lediglich die "Lautstärkekurven" auf 0 runterregeln. Das wäre ja für mich in der Theorie kein Prozess von Dauer, so wie z.B. bei der Berechnung von Crosstalk, sondern ein eigentlich (fast statischer) Festwert. Oder müsste dafür dauerhaft ein aktives Oversampling aktiviert sein? Ich denke nicht, oder doch? Wenn SO dann also die Profile von Sonarworks einlesen könnte, wäre das doch prima. Vor allem weil der ganze Prozss dann fest in der DAW verankert wäre, anstatt in einem PlugIn zu laufen. Es wäre also quasi wie ein fest installierter passiver EQ in der Engine, der lediglich am Ausgang greift und auch nur dort konfiguriert, ein- und ausgestellt wird.

Edit:
Um nochmal auf ASR3 zurückzukommen: HIer ein Video eines SO Users. Wenn ihr mal genau ab Minute 19 hört und ab 19:11min auf den Bypass achtet, werdet ihr wirklich das Panning ganz deutlich hören. Ich würde sagen das PlugIn ist besser als man meinen könnte.
Hier der Link:
phpBB [video]
User avatar
by sebastianholtzer on Sun Jul 21, 2019 8:45 am
Ich habe ich mich mal ein bisschen schlau gemacht und festgestellt, dass Sonarworks einen sogenannten Fir-Filter benutzt. Würde es theoretisch trotzdem Latenz und CPU sparen, wenn Mix-FX oder Main-Out-FX das trotzdem irgendwann könnten?

Ich habe mir noch vorgestellt, das wenn Studio One jetzt so ein „Arbeitsplatzraum“ wie ARS3 wäre, in dem Du ja sitzt, und das angesprochen hatte ich ja beiläufig schon mal, wäre es doch möglich diesen genauso in 3D zu hören. Wenn man jetzt zum Beispiel „Mixfield“ entwickeln würde, was im Prinzip so funktionieren würde wie der Visual Mixer in Neutron, könnte man doch im Raum positionieren. Wenn Mixfield also alle Sends abfragen würde und SO somit dann genau weiß, was ein Reverb ist, könnte es schon mal die Räume ermitteln. Verschiebe ich jetzt die Positionen der Instrumente in deren zugewiesenen Hallraum, könnte Mixfield also einmal die Lautstärken, das Panning und zusätzliche Einstellungen an einem versteckten EQ ändern um eine Richtungsortung vorzunehmen ohne dafür aufwendige Filter zu benutzen. Oder aber die Aktivierung von Mixfield würde einen 3D Algorithmus hinzuschalten wie z.B. DearVR ihn benutzt. Interessant wäre das auf alle Fälle. Besonders für die Vertonung von Videos. Es müsste ja nicht einmal furchtbar kompliziert sein, sondern lediglich, übersichtlich, einfach zu bedienen und sehr zugänglich sein.
User avatar
by AriAhrendt on Mon Jul 22, 2019 3:21 pm
Das geht doch total in die falsche Richtung.
Einzelspuren haben absolut gar gar gar nichts mit der späteren Raum-Lautsprecher-3D-Reflextions-etc.-Sache zu tun. Also Mix-FX ist der mit Abspand weitentfernteste Ansatz, um sowas zu ermöglichen. Das muss doch irgendwie klar sein find ich. :D Also egal wieviele Spuren simuliert werden, und egal, welcher Mixingapparat das vollführt, letztlich landet alles in EINEM Raum. Also was genau soll denn da bei den Mix-FX in jedem Einzelkanal simuliert werden? Wie sich der Transistor auf den Wandteppich auswirkt?

Eine Abhörsimulation zu ...ähm... simulieren kann man doch bestehende und viel einfachere Techniken benutzen. Was ja auch gemacht wird. Es gibt da ja etliche Produkte. Diese gehören aber alle sozusagen HINTER die Mischtechnik.

Ari

Ari Ahrendt - Quality Assurance Specialist
PreSonus Software Ltd. - Hamburg
http://www.presonus.com/products/studio-one

Modern electronic Synth Pop........../..........Musicproduction, Support & coaching
http://www.denoisary.de/................./...........http://www.arimusik.de/

Windows 10 64-Bit, i7 6700k 4.0 GHz, 16GB RAM, 256GB SSD, Studio One 4 Professional 64-Bit
User avatar
by sebastianholtzer on Tue Jul 23, 2019 8:10 am
AriAhrendt wrote Also was genau soll denn da bei den Mix-FX in jedem Einzelkanal simuliert werden? Wie sich der Transistor auf den Wandteppich auswirkt?

Eine Abhörsimulation zu ...ähm... simulieren kann man doch bestehende und viel einfachere Techniken benutzen. Was ja auch gemacht wird. Es gibt da ja etliche Produkte. Diese gehören aber alle sozusagen HINTER die Mischtechnik.

Ari
Eigentlich eher eine Tanzparty unter Milben auf 138Bpm damit die Wände wackeln 😊
Nein, Spaß beiseite. Der Gedanke war eigentlich Mix-FX einfach mit einer neuen Möglichkeit/Aufgabe zu erweitern bzw. es darunter zu vermarkten. Dieses Feld wäre ja auch ganz am Ende. Nur dass es quasi mit einem programminternen Zugriff auf alle Kanäle zugreifen könnte um letztendlich die Möglichkeit zu geben, kinderleicht ein schöneres, tieferes und aufgeräumteres Panorama zu erzeugen. Wenn jetzt jemand etwas in den Hintergrund packen will, müsste er zum Kanal und die Lautstärke neu pegeln, den hochfrequenten Bereich am Equalizer einstellen und und und. Würde bei dem Konzept allerdings wegfallen.

Sicherlich landet am Ende alles in einem Raum aber: Wenn du mal kuckst ist ja nicht jeder Hallraum gleich groß (Room Reverb lässt grüßen). Außerdem kannst du die Breite bei vielen ja auch einstellen und außerdem gehe ich davon aus, dass die meisten Leute eigentlich dann auch eine Tiefenstaffelung benutzen und entsprechend verschiedene Pre-Delays nutzen. Somit sind es ganz viele Räume in einem Song und jeder ist ja in der Regel über eine Gruppe/Submix oder direkt mit einem Instrument verknüpft. Wenn du jetzt also quasi am Feld die Positionierung im Raum vornimmst und damit gleichzeitig all die Parameter automatisch steuern würdest, müsstest du doch auch ab 5.1 besser heraushören können, was du dort gemacht hast(?). Zumindest schätze ich als Laie das mal – auch wenn es über diese Art eher künstlich wäre. Ich habe übrigens auch nie mit 5.1 gearbeitet, von daher: Verzeihung falls du dich gerade Totgelacht haben solltest, aber ich war mir sicher, dass das doch machbar sein müsste. Neutron macht das doch auch. Allerdings über das PlugIn und was genau dort passiert weiß ich nicht. Wenn ich jetzt aber ein DAW internes Konzept hätte, könnte ich das doch viel besser und bräuchte Neutron nicht und könnte dann die Klanglandschaft viel detailiierter im Studio hören. Egal ob in Studio 3 oder 1. Das war mein Gedanke. Was mich beschäftigt hat ist folgendes:
Wenn du mal den Reverb an Dear VR ausstellst, ist eine Ortung immer noch sehr präzise möglich und hörbar vorhanden. Liegt das daran, dass die Positionen trotzdem noch anhand des Reverbs berechnet werden oder findet dort nichts anderes statt als Panning, EQ, Level usw.?

16 posts
Page 1 of 1

Who is online

Users browsing this forum: No registered users and 2 guests