Nicht mehr ganz neu hier
hallo allerseits,
ich hab mal ne frage. C4d sowie die meisten anderen cad programme arbeiten ja erstmal grundlegend mit der cpu zusammen, was jedoch bei einem grafikprogramm eigentlich eher fern liegt, weil die cpu nicht wirklich dafür geschaffen ist bildpunkte zu rendern.
meine frage ist, ob es bereits ein programm oder möglichkeit gibt die grafikkarte zum rendern zu benutzen? oder hat man da immernoch nichts entwickelt um das endlich mal zu lösen?
soviel ich weis, bzw. ich hab mir vor einer weile einen test angeschaut in dem die beste cpu von intel gegen eine horn-alte graka von nvidia angetreten ist im rendertest. recht schwere scene. die cpu brauchte irgentwas um die 4h zum rendern was eigentlich schnell war, für eine cpu.
jedoch ließ die grafikkarte die bereits damals schon 5jahre alt war die cpu ganz schön alt aussehen. sie brauchte nicht mal 2min um die scene zu rendern.
die heutigen garfikkarten sind da ja noch um eine gefühlte unendlichkeit schneller, wieso also nicht die nutzten wenn sie für einen scene zum rendern für die die normale cpu einen tag braucht, das in 1min vollbringt.
weis jemand genaueres?
gruß
herkules
ich hab mal ne frage. C4d sowie die meisten anderen cad programme arbeiten ja erstmal grundlegend mit der cpu zusammen, was jedoch bei einem grafikprogramm eigentlich eher fern liegt, weil die cpu nicht wirklich dafür geschaffen ist bildpunkte zu rendern.
meine frage ist, ob es bereits ein programm oder möglichkeit gibt die grafikkarte zum rendern zu benutzen? oder hat man da immernoch nichts entwickelt um das endlich mal zu lösen?
soviel ich weis, bzw. ich hab mir vor einer weile einen test angeschaut in dem die beste cpu von intel gegen eine horn-alte graka von nvidia angetreten ist im rendertest. recht schwere scene. die cpu brauchte irgentwas um die 4h zum rendern was eigentlich schnell war, für eine cpu.
jedoch ließ die grafikkarte die bereits damals schon 5jahre alt war die cpu ganz schön alt aussehen. sie brauchte nicht mal 2min um die scene zu rendern.
die heutigen garfikkarten sind da ja noch um eine gefühlte unendlichkeit schneller, wieso also nicht die nutzten wenn sie für einen scene zum rendern für die die normale cpu einen tag braucht, das in 1min vollbringt.

weis jemand genaueres?
gruß
herkules
.