Die Neu­erstel­lung eines Revit Zen­tral-Modells ist nicht nur ein bewe­gen­der Akt, son­dern auch der Pro­log zur Ent­ste­hung gro­ßer Din­ge. Nimmt die Model­lie­rung im Sin­ne des “Open-BIM” erst mal sei­nen Lauf ist sie kaum auf­zu­hal­ten. Anfangs läuft alles noch wie am Schnür­chen: Das Pro­gramm reagiert schnell und weist kein Fehl­ver­hal­ten auf, jedoch wächst die Zen­tral­da­tei zeit­gleich in der Datei­grö­ße, was bedeu­tet, dass das Arbei­ten immer kräf­te­zeh­ren­der wird und auch das Res­sour­cen-Manage­ment nicht mehr stand hal­ten kann. Die­ser Zeit­punkt ist meist dann erreicht, wenn alle bis zum letz­ten wesent­li­chen Akteur des Daten-Modells dar­in arbei­ten soll­ten. Um die­sem Para­do­xon ent­ge­gen­zu­wir­ken erklä­ren wir hier Präventivmaßnahmen.

Die, auf die Revit-Per­for­mance, ein­fluss­neh­men­den Fak­to­ren bezie­hen sich nach wie vor auf die Haupt­kom­po­nen­ten eines PC’s. Näm­lich (Auf­lis­tung nach Stär­ke der Ein­fluss­nah­me) CPU, Gra­fik­kar­te, Daten­spei­cher und Arbeitsspeicher.

CPU

Die zwei Haupt­merk­ma­le einer CPU sind Takt­ra­te und Kern­zahl. Das Revit-Frame­work selbst ist auf Ein­zel­kern­ver­ar­bei­tung aus­ge­legt, das bedeu­tet das haupt­säch­lich nur ein Kern von meh­re­ren ver­wen­det wird. Ein logi­scher Schluß dar­aus wäre eine CPU mit weni­gen Ker­nen und hoher Takt­ra­te. Dadurch wer­den vie­le gän­gi­ge Hard­ware-Bench­marks, zum ein­fa­chen Ver­glei­chen von CPU’s, obso­let. Der Wider­spruch dar­an ist jedoch, dass inner­halb neu­er Ver­sio­nen mehr und mehr Zusatz­funk­tio­nen Mul­ti-Core-Ver­ar­bei­tung zulas­sen, unter ande­rem Ren­de­ring. Die Dau­er eines Ren­der-Vor­gangs hängt von der Kern­an­zahl ab. Das bedeu­tet, dass der Bedarf wel­che Art der Arbeit mit einem neu­en Gerät aus­ge­führt wird, zuerst ermit­telt wer­den soll­te. Emp­foh­len wird, jedoch kein Kom­pro­miss zwi­schen den bei­den Merk­ma­le ein­zu­ge­hen, da ent­we­der meist die Leis­tung dann nicht reicht, oder exor­bi­tan­te Prei­se entstehen.

Gra­fik­kar­te

Das Kri­te­ri­um geeig­ne­ter Gra­fik­kar­ten im Bereich CAD-Model­ling ist die Anzahl der CUDA-Ker­ne (NVI­DIA) bzw. Transistoren(AMD). Der Ein­fluss der Gra­fik­kar­te ist nicht außer Acht zu las­sen, da sich die Bear­bei­tung eines 3‑D-Modells ana­log zu inter­ak­ti­vem Ren­de­ring (Ren­dern in Echt­zeit) ver­hält. Besteht die Anfor­de­rung zur Fähig­keit des Ren­derns kom­ple­xer Sze­nen, ist die Spei­cher­grö­ße der Gra­fik­kar­te eben­so zu beach­ten, da die zu ren­dern­de Sze­ne jeweils in die­sen Zwi­schen­spei­cher gela­den wer­den muss. Der Spei­cher­be­darf ver­hält sich line­ar zur Kom­ple­xi­tät der Sze­ne. Die Ent­schei­dung zwi­schen maxi­ma­ler und durch­schnitt­li­cher Spei­cher­ka­pa­zi­tät hängt allein von der Ja/N­ein-Fra­ge ab ob enorm foto­rea­lis­ti­sches Ren­dern (mög­li­cher­wei­se sogar von Punk­te­wol­ken) mög­lich sein soll­te oder nicht.

Die NVI­DIA-spe­zi­fi­sche Fra­ge Qua­dro- oder Gefor­ce-Pro­dukt­rei­he hängt vom gewünsch­ten Grad der Inte­gri­tät der Daten ab, da das Kern­ele­ment der Qua­dro-Gra­fik­kar­ten der soge­nann­te ECC (Error Cor­rec­ting Code) ist.

Mehr dazu später.

Daten­spei­cher

Die Stra­te­gie, Daten auf zen­tra­len Ser­ver­ein­hei­ten zu spei­chern, hat sich schon längst bewährt, da es unter ande­rem ein­fa­cher ist Daten an einer Stel­le red­un­dant zu ver­wal­ten, als jedes Gerät eigens daten­red­un­dant zu gestalten.

Auf loka­le Spei­cher soll­te man ins­be­son­de­re bei Work­sta­tions nicht ver­zich­ten, da die Daten immer in loka­le Ver­zeich­nis­se gela­den wer­den, um die­se schnel­ler ver­ar­bei­ten zu kön­nen. Solan­ge kein suf­fi­zi­en­tes zen­tra­les Daten­ma­nag­ment rund um Revit bzw. 3D-CAD vor­han­den ist, hat der loka­le Daten­spei­cher Ein­fluss auf die Effizienz.

Die Daseins­be­rech­ti­gung erlan­gen SSD’s dadurch, dass die­se ent­ge­gen HDD’s aus nicht beweg­li­chen Tei­len besteht und somit grö­ße­re Daten­ra­ten über­tra­gen kann. Der der­zei­ti­ge Trend 2,5” SATA SSD’s zu instal­lie­ren, bringt zwei­fels­oh­ne eine Leis­tungs­ver­bes­se­rung. Die Daten­über­tra­gung der phy­si­ka­len Schnitt­stel­le SATA und CPU ist jedoch nicht nur indi­rekt, son­dern auch geschwin­dig­keits­tech­nisch begrenzt. Eben­so ist die nicht-phy­si­ka­li­sche SATA-Schnitt­stel­le “AHCI” opti­miert um mit HDD’s zu arbei­ten, genau­er gesagt ist hier­mit nur ein Zugriff auf den Spei­cher pro Zeit­ein­heit erlaubt.

Die Lösung

NVMe

Nicht-phy­si­ka­li­sche Schnitt­stel­le / Daten­über­tra­gungs­pro­to­koll, ermög­licht par­al­le­len Zugriff.

SSD

mit einer der fol­gen­den Schnittstellen:

  • M.2
  • U.2
  • PCI‑E x4

Damit die­se Stra­te­gie nun kugel­si­cher ist, soll­te man sich im Kla­ren sein, wie man die­se SSD nun am Bes­ten ein­setzt. Wer­den auf der SSD nur Betriebs­sys­tem und Pro­gram­me instal­liert und eine HDD als Pro­jekt­ver­zeich­nis ver­wen­det, wer­den die Lade­zei­ten der Pro­gram­me selbst um ein Viel­fa­ches kür­zer, das Abspei­chern eines geöff­ne­ten Pro­jekts wird dadurch jedoch nicht schnel­ler. Auf­grun­des­sen ist eine SSD als Pro­jekt­ver­zeich­nis (mit genü­gend Kapa­zi­tät) in dem Fal­le, das man das Pro­jekt öfter spei­chert, als die Anwen­dung star­tet, mög­li­cher­wei­se sinnvoll.

ECC

Error Cor­rec­ting Code wird von allen, der Tech­no­lo­gie fähi­gen, Daten ver­ar­bei­ten­den Bau­tei­len eines Com­pu­ters (CPU, GPU, RAM, Daten­spei­cher, …) unter­stützt. Die­ser Mecha­nis­mus erkennt Feh­ler bei der Über­tra­gung und Spei­che­rung von Bits und kor­ri­giert die­se. Feh­ler­ur­sa­chen kön­nen elek­tro­ma­gne­ti­sche Strah­lung, radio­ak­ti­ve Strah­lung und Inter­fe­renz sein. Die Anfor­de­rung die­ser Maß­nah­me bezieht sich auf Berei­che, bei wel­chen die höchst­mög­li­che Inte­gri­tät der Daten gefor­dert ist, also zum Bei­spiel im Finanz­we­sen, Flug­we­sen, in Daten- und Rechen­zen­tren sowie inner­halb Ser­vice­ver­trä­gen. Daher ist die gesam­te Band­brei­te an ECC-fähi­gen Pro­duk­ten nur für Fir­men­kun­den verfügbar.

GDPR Cookie Consent mit Real Cookie Banner