Die Neuerstellung eines Revit Zentral-Modells ist nicht nur ein bewegender Akt, sondern auch der Prolog zur Entstehung großer Dinge. Nimmt die Modellierung im Sinne des “Open-BIM” erst mal seinen Lauf ist sie kaum aufzuhalten. Anfangs läuft alles noch wie am Schnürchen: Das Programm reagiert schnell und weist kein Fehlverhalten auf, jedoch wächst die Zentraldatei zeitgleich in der Dateigröße, was bedeutet, dass das Arbeiten immer kräftezehrender wird und auch das Ressourcen-Management nicht mehr stand halten kann. Dieser Zeitpunkt ist meist dann erreicht, wenn alle bis zum letzten wesentlichen Akteur des Daten-Modells darin arbeiten sollten. Um diesem Paradoxon entgegenzuwirken erklären wir hier Präventivmaßnahmen.

Die, auf die Revit-Performance, einflussnehmenden Faktoren beziehen sich nach wie vor auf die Hauptkomponenten eines PC’s. Nämlich (Auflistung nach Stärke der Einflussnahme) CPU, Grafikkarte, Datenspeicher und Arbeitsspeicher.

CPU

Die zwei Hauptmerkmale einer CPU sind Taktrate und Kernzahl. Das Revit-Framework selbst ist auf Einzelkernverarbeitung ausgelegt, das bedeutet das hauptsächlich nur ein Kern von mehreren verwendet wird. Ein logischer Schluß daraus wäre eine CPU mit wenigen Kernen und hoher Taktrate. Dadurch werden viele gängige Hardware-Benchmarks, zum einfachen Vergleichen von CPU’s, obsolet. Der Widerspruch daran ist jedoch, dass innerhalb neuer Versionen mehr und mehr Zusatzfunktionen Multi-Core-Verarbeitung zulassen, unter anderem Rendering. Die Dauer eines Render-Vorgangs hängt von der Kernanzahl ab. Das bedeutet, dass der Bedarf welche Art der Arbeit mit einem neuen Gerät ausgeführt wird, zuerst ermittelt werden sollte. Empfohlen wird, jedoch kein Kompromiss zwischen den beiden Merkmale einzugehen, da entweder meist die Leistung dann nicht reicht, oder exorbitante Preise entstehen.

Grafikkarte

Das Kriterium geeigneter Grafikkarten im Bereich CAD-Modelling ist die Anzahl der CUDA-Kerne (NVIDIA) bzw. Transistoren(AMD). Der Einfluss der Grafikkarte ist nicht außer Acht zu lassen, da sich die Bearbeitung eines 3-D-Modells analog zu interaktivem Rendering (Rendern in Echtzeit) verhält. Besteht die Anforderung zur Fähigkeit des Renderns komplexer Szenen, ist die Speichergröße der Grafikkarte ebenso zu beachten, da die zu rendernde Szene jeweils in diesen Zwischenspeicher geladen werden muss. Der Speicherbedarf verhält sich linear zur Komplexität der Szene. Die Entscheidung zwischen maximaler und durchschnittlicher Speicherkapazität hängt allein von der Ja/Nein-Frage ab ob enorm fotorealistisches Rendern (möglicherweise sogar von Punktewolken) möglich sein sollte oder nicht.

Die NVIDIA-spezifische Frage Quadro- oder Geforce-Produktreihe hängt vom gewünschten Grad der Integrität der Daten ab, da das Kernelement der Quadro-Grafikkarten der sogenannte ECC (Error Correcting Code) ist.

Mehr dazu später.

Datenspeicher

Die Strategie, Daten auf zentralen Servereinheiten zu speichern, hat sich schon längst bewährt, da es unter anderem einfacher ist Daten an einer Stelle redundant zu verwalten, als jedes Gerät eigens datenredundant zu gestalten.

Auf lokale Speicher sollte man insbesondere bei Workstations nicht verzichten, da die Daten immer in lokale Verzeichnisse geladen werden, um diese schneller verarbeiten zu können. Solange kein suffizientes zentrales Datenmanagment rund um Revit bzw. 3D-CAD vorhanden ist, hat der lokale Datenspeicher Einfluss auf die Effizienz.

Die Daseinsberechtigung erlangen SSD’s dadurch, dass diese entgegen HDD’s aus nicht beweglichen Teilen besteht und somit größere Datenraten übertragen kann. Der derzeitige Trend 2,5” SATA SSD’s zu installieren, bringt zweifelsohne eine Leistungsverbesserung. Die Datenübertragung der physikalen Schnittstelle SATA und CPU ist jedoch nicht nur indirekt, sondern auch geschwindigkeitstechnisch begrenzt. Ebenso ist die nicht-physikalische SATA-Schnittstelle “AHCI” optimiert um mit HDD’s zu arbeiten, genauer gesagt ist hiermit nur ein Zugriff auf den Speicher pro Zeiteinheit erlaubt.

Die Lösung

NVMe

Nicht-physikalische Schnittstelle / Datenübertragungsprotokoll, ermöglicht parallelen Zugriff.

SSD

mit einer der folgenden Schnittstellen:

  • M.2
  • U.2
  • PCI-E x4

Damit diese Strategie nun kugelsicher ist, sollte man sich im Klaren sein, wie man diese SSD nun am Besten einsetzt. Werden auf der SSD nur Betriebssystem und Programme installiert und eine HDD als Projektverzeichnis verwendet, werden die Ladezeiten der Programme selbst um ein Vielfaches kürzer, das Abspeichern eines geöffneten Projekts wird dadurch jedoch nicht schneller. Aufgrundessen ist eine SSD als Projektverzeichnis (mit genügend Kapazität) in dem Falle, das man das Projekt öfter speichert, als die Anwendung startet, möglicherweise sinnvoll.

ECC

Error Correcting Code wird von allen, der Technologie fähigen, Daten verarbeitenden Bauteilen eines Computers (CPU, GPU, RAM, Datenspeicher, …) unterstützt. Dieser Mechanismus erkennt Fehler bei der Übertragung und Speicherung von Bits und korrigiert diese. Fehlerursachen können elektromagnetische Strahlung, radioaktive Strahlung und Interferenz sein. Die Anforderung dieser Maßnahme bezieht sich auf Bereiche, bei welchen die höchstmögliche Integrität der Daten gefordert ist, also zum Beispiel im Finanzwesen, Flugwesen, in Daten- und Rechenzentren sowie innerhalb Serviceverträgen. Daher ist die gesamte Bandbreite an ECC-fähigen Produkten nur für Firmenkunden verfügbar.

Rückruf anfordern