Den PR-Autoren ist mehrfach der Vorwurf gemacht worden, alle Systeme auf nD-Basis würden einerseits ihren Geist aufgeben, andererseits funktionierten gewisse für die Handlung unverzichtbare Geräte, zB Gravitraf-Speicher und Nugas-Schwarzschildmeiler (beide auf nD-Basis arbeitend) aber fröhlich weiter. Habe hier eine These ausgearbeitet, die Aussetzter der Hypertechnik lediglich auf das Versagen digitaler Kontrollsysteme zurückzuführen.
Jedes Computersystem arbeitet mit Prozessoren. Ein Prozessor wiederum hat entsprechend seinem Assemblercode einen bestimmten Satz von logischen Befehlen (fest verdrahtet, nicht programmierbar) die wiederum aus einer Kombination von logischen Gattern (AND, NOR, NOT, usw.), die letztendlich aus den kleinsten möglichen digitalen Elementen, den FLIP-FLOPs (Wechselschaltern) bestehen.
Alle "konventionellen" Computersysteme (Elektronik, Positronik und Hyperinpotronik) arbeiteten mit realen, dauerhaft vorhandenen Flip-Flops. Die Überlegenheit einer modernen Syntronik basiert weder auf ihrer Verarbeitungsgeschwindigkeit (Hyperinpotroniken waren auch hyperschnell) noch auf der Tatsache, daß man nicht benötigte Prozessorbänke mal eben in Arbeitsspeicher umwandeln kann.
Die Überlegenheit des Syntrons spielt sich im Flip-Flop ab.
Die Tatsache das man es mit virtuell projezierten Schaltelementen
zu tun hat, erlaubt die überlagernde Projektion zahlloser,
möglicherweise einiger hunderttausend (Pikosyn)
phasenverschobener Wechselschalter in einem Volumen, in dem
früher nur ein einziger Platz hatte. Die Syntronik ist somit
die erste WIRKLICHE Rechnergeneration mit der Fähigkeit des
Multitaskings.
Eine Syntronik arbeitet nur solange fehlerfrei, wie eine
einwandfreie Trennung der Einzel-Tasks möglich ist.
Um einfach ein Beispiel aus der Luft zu greifen:
Signalpegel im Bereich von 25354480 bis 25354485 Heef werden von
Task 100050 belegt, der Pegelbereich von 25354490 bis 25354495 von
Task 100051.
Durch den Einfluß der Hyperaumparese rutschen die Signale um
5 Heef ab....
Informationen die zuvor von Task 100051 verarbeitet wurden treten
nun mit dem Systemablauf von Task 100050 in Wechselwirkung.
Ergebniss #1: nach einem einmaligen mächtigen Absturz, bleibt jeder Bootvorgang bereits beim Hardwaretest hängen.
Ergebniss #2: jedes direkt syntronisch kontrollierte
System versagt ebenfalls, da interne Sicherheitsschaltungen ein
Anfahren der Aggregate ohne funktionierende Kontrolleinheit erst
gar nicht zulassen.
direktes Gefahrenpotential:
die Existenz der Anlage stellt eine mögliche Gefährdung
dar (Stützmassentanks, Myon-Deuterium und NUGAS-Behälter,
Gravitraf-Speicher)
Letztere werden von Computersystemen lediglich überwacht.
Die Systemprozesse sind selbstkontrollierend. (Ein Beipiel aus dem
19. Jahrhundert; die erste selbsttätige Regelung von
Damptmaschienen funtionierte wie folgt: die Antriebswelle war mit
einem senkrecht stehenden rotierenden Gewicht verbunden. Lief die
Maschiene schneller überwand die Zentrifugalkraft das Gewicht,
verlagerte sich weiter nach oben und betätigte damit ohne
Verwendung weitere Hilfsenergie das Regelventil der
Dampfzufuhr.)
Zur Zeit der Hyperraumparese bedeutete dies, daß die
Einflüße auf die Betriebsprozesse und die auf die
Regelprozesse sich ungefähr in der Waage hielten - die
Systeme, von leichten Einbußen im Bereich der Wirkungsgrade
abgesehen, auch weiterhin ihren Dienst versahen.
ANTWORT:
980928rc die
Überlegungen zur Hyperraum-Parese ist recht interessant
Wie Holger möchte ich jedoch die binäre Arbeitsweise
anzweifeln