[SR3] Sichtüberlagerung & Guncam

  • Hallo zusammen,


    ich brauche dringend eure Meinung da ich nicht mehr bei folgenden Problemen weiter weis:


    1. Ich habe einen Chummer mit Cyberaugen + Augenlicht + restlicht Verst.+ Infarot und Ultra Schall. Dessen Spieler beruht auf der Auffassung das dieser Chummer alle verschiedenen Sichten überlagern (ganz schnell durchschwitchen kann /schnell wechseln hintereinander) kann und somit immer den kleinsten kombinierten (mit Ultraschall) Sichtmodifikator bekommt. Ich finde in den Regeln kein Satz der das klar definiert ob es geht oder nicht obwohl ich "geht nicht" sagen würde. Was sagt ihr dazu?


    2. Zum Ultra Schall in den Cyberaugen stelle ich mir die Frage wie der Char Ultraschall sieht (er hat keine andere Cyberware im Körper ausser Cyberaugen)? Oder ist es ein Instinkt der sagt wo etwas steht? Oder...hilfe...


    3. Ein anderer Chummer hat Cyberaugen mit elektronischen Sichtvergrösserung III. Er trägt dazu noch ein Vollhelm. Dieser Vollhelm hat das Infarotsystem drinn. Kann der Chummer alles miteinander kombinieren?
    elektr. Sichtvergrösserung (Chummer) + Infarotsystem (Helm)?
    restlicht Verst. (Chummer) + elektr. Sichtvergrösserung (Helm)?


    Guncam anderes Problem:


    4. Wenn ich einen Chummer mit Cyberaugen + Bildverbindung + Waffe mit Smartgunverbindung + Guncam auf der Waffe habe. Und dieser Chummer die Guncam nutzt zum Schiessen berechnen ich den Mindestwurf fürs Schiessen so als der Chummer ohne Guncam mit Smart schiessen würde? (fehlt vielleicht noch eine Cyberware, funktioniert es überhaupt?)


    Nach einem Telefonat heute Abend mit einem Spieler kam die Diskussion hoch (seiner seits) das das Fadenkreuz der Smartverbindung in beiden Augen wäre und die Bildverbindung nur in einem und somit es schwerer zu schiessen wäre wegen der bei Guncam nicht vorhandenen Tiefenwahrnehmung. Meiner Meinung ist das falsch. Fadenkreuz nur in einem Auge und zum Schiessen braucht man keine Tiefenwahrnehmung da ich nicht die Entfernung zum Schiessen abschätzen muss. Bitte korriegiert mich wenn ich mich irren solte.


    Hoffentlich könnt ihr mir weiter helfen...


    Ab in die Schatten
    Schattenläufer

  • Ich bin zwar raus aus SR3 ,
    aber eine Cyberware zu aktivieren/deaktivieren war einen Freie Handlung (und damit auch eine Sicht).
    man hat 1 Freie und entweder 2 Einfache oder eine Komplexe Handlung
    also kann er entweder nur 1x umschalten oder er muss seine einfache Handlungen "eintauschen"um mehrmals pro Durchgang umzuschalten.(rein nach RAW ist : einschalten= Frei,Auschschalten wieder Frei,zweite Sichtmodi einschalten Frei,dann wieder ausschalten Frei,usw also wäre 1. ein, dann aus und 2te ein alles was möglich ist.) Ich denke umswitschen als Freie Handlung rweicht völlig,wenn er also nicht asnderes macht kann er 3 verschiedene Sichtmodi an&ausschalten pro Durchgang.
    übrigens ist die Handlung genau wahrnehmen(zumindestens in SR4) eine einfache Handlung :!:
    Wenn er alles überlagert hätte (was ImO nicht geht) würde er von dem Input wahnsinnig werden.Man kann sich halt nur auf 1 max 2 Sichtarten gleichzeitig einstellen
    (so wie Metas das von Natur aus haben ,nämlich natürliche Sicht & entweder I-Rot oder Restlicht )
    Tip
    Lass dich nicht in die Irre führen von Spielern die ein "großes Mundwerk" haben !


    HokaHey
    Medizinmann

  • @1, diverse Sichten durchschalten: Warum will dein Spieler die Sichten denn hintereinanderschalten... Wenn jemand bei mir das tun würde, wäre er danach für mindestens einen Durchgang "geblendet", weil ein plötzliches Umschalten der Sicht erst für kurze Desorientierung sorgt (allein schon, um beim Autofahren die Augen von "Brennweite unendlich"/Straße auf "Brennweite ~1m"/Tacho umzuschalten kostet jedesmal eine halbe Sekunde!). Aber wozu auch der Stress, wenn man einfach alle überlagern kann! :) Restlichtverstärkung ist, platt gesprochen, nur "mehr Licht", was über das "vorhandene Licht" gelagert wird, IR-Sicht ist "anderes" Licht (nämlich Infrarot :P), was über die "normalen Lichter" (nämlich das volle Spektrum von Rot, über Grün nach Blau) gelagert wird... warum sollte man das nicht auch kombinieren? Um das ganze zu verdeutlichen, hab ich mal ein paar Minuten in ein heutzutage handelsübliches Grafikprogramm gesteckt (also stellt euch selbst vor, was die Automatik in 60 Jahren noch zusätzlich raus holt ;))


    normale Sicht, Originalbild
    Restlichtverstärkung
    IR-Verstärkung
    Ultraschall
    Alles sinnvoll kombiniert


    (Und ja, mit diesen Bildern will ich auch ein wenig mit, in meinen Augen geläufigen Missverständnissen aufräumen... Ultraschall ist per se kein Bild, sondern Tiefeninformation, Restlichtverstärkung ist nicht grün, und IR ist an sich erst mal was anderes als "Thermografische Sicht")


    Kurzum: was spricht dagegen, alles zu kombinieren? Im Gegenteil, ich halte das durchaus für sehr sinnvoll, alle zur Verfügung stehenden Daten zu sammeln, aufzubereiten, und kombiniert darzustellen (Stichwort: Sensor Fusion). Regeltechnisch heißt das natürlich auch, dass nur der jeweils "niedrigste" Modifikator gilt, wenn es darum geht, was der Charakter nicht sehen kann. Auf der anderen Seite heißt das aber auch, dass die Modifikatoren, die durch störende Zusatzinformation kommen, eben auch alle angerechnet werden. Zum Beispiel auch bei völliger Dunkelheit nur -3 (Ultraschall), statt der sonst üblichen -6, aber halt auch "neue" -6 für die Infrarotsicht, wenn jemand plötzlich eine IR-Rauchgranate zündet. Alles im Leben hat 2 Seiten... und wenn deine Spieler nicht damit rechnen, um so besser... :twisted:
    Und gerade was Ultraschall angeht, sollte man einen wichtigen Faktor nicht vernachlässigen: die Ausbreitungsgeschwindigkeit von Schall in Luft! Selbige beträgt nämlich nur knappe 350m/s. Wenn man jetzt bedenkt, dass man für ein flüssiges Bild mindestens 20 Bilder in der Sekunde braucht, und der Schall ja zum Hindernis und zurück kommen muss, landet man bei einer effektiven Reichweite von eigentlich nur 8,75m, also sagen wir 10m, weil wir faire SL sind! (350m/s [Schallgeschwindigkeit] * 0,05s [Zeit pro Bild für 20fps] * 0,5 [Hin- und zurück] = 8,75m) In den knapp 1500m/s im Wasser landet man immerhin bei knapp 40m Reichweite... Will ich damit sagen, Ultraschall ist völlig unbrauchbar? Nein, das nicht. 10m Sicht sind immer noch eine Menge, wenn man alternativ 0m Sicht hätte, und in der Praxis kann man ja gerne auch höhere Reichweiten zulassen (wenn man z.B. davon ausgeht, dass nur 10 Bilder pro Sekunde aufgenommen werden, und ein KRASSER In-60-Jahren-Algorithmus den Rest sauber simuliert, wobei man dann allerdings dennoch bei Überraschungen aufgeschmissen wäre oder dergleichen...).


    @2, Ultraschall im Cyberauge: Wenn man davon ausgeht, dass ein Ultraschallsender in einem künstlichen Auge Platz findet, dann wird es sicher auch noch Platz für ein paar Mikrofone haben, finde ich. Und die Elektronik dahinter, die (wie oben erwähnt) aus den abstrakten Tiefeninformationen ein brauchbares Bild rechnet.


    @3, Sichtverbesserung aus verschiedenen Geräten kombinieren: Ich würde auch hier den einfachen Weg gehen: klar, warum nicht. Wenn in mindestens einem Gerät eine Bildverbindung steckt, lassen sich ja alle Verbesserungen der anderen Geräte digital auf diese Bildverbindung legen, wobei die meisten Verbesserungen (Restlicht, IR, elektronische Vergrößerung = Digitalzoom...) ohnehin unabhängig voneinander gut kombinierbar sind. Wenn ich mit dem Digitalzoom meiner Kamera das Bild einer Wärmebildkamera vergrößere, hab ich ja auch beides kombiniert. Lediglich vereinzelte Dinge würde ich unterbinden. Dein Chummer aus (2) mit dem Ultraschall im Auge würde ich sagen, dass er damit natürlich nicht durch das Visier seines Helmes kommt, da der Schall da ja schon reflektiert wird.


    @4, Guncam: Erstmal bin ich schon auch der Meinung, dass die Smartgun unabhängig von der Guncam angerechnet werden sollte. SG ist ja mehr, als nur ein Fadenkreuz (sonst würde es ja nicht mehr bringen als selbige :D), und mit der Guncam allein kann man ja schon um Ecken schießen. Allerdings würde ich genau für dieses "um die Ecke schießen" halt nach Gutdünken ein paar Modifikatoren veranschlagen... mindestens "aus der Deckung" und keine Rückstoßkompensation, die nich in der Waffe ist (also kein Dreibein, keine Schulterstütze... wie auch), wahrscheinlich den Rückstoß sogar verdoppeln wegen der denkbar ungünstigen Haltung.
    Aber wie kommt dein Chummer darauf, die Smartgun müsste in beiden Augen sein? Ein Fadenkreuz oder ein Zielfernrohr sind doch auch nur über einem Auge. Außerdem wird der Stereo-Effekt der beiden Augen für die räumliche Wahrnehmung überschätzt... Tatsächlich reicht der Augenabstand und die "Auflösung" der Netzhaut über diese Methode nur für... (lasst mich nicht lügen, ist doch schon etwas her) maximal 50m, ab dann steigt das Gehirn auf bekannte Vergleichsgrößen um. Nichts desto weniger hat dein Chummer damit recht, dass es durch die Guncam allein schwieriger ist, etwas zu tun, einfach aus dem Grund heraus, dass man einen ungewohnten Blickpunkt hat. Kann man leicht mit einer Digitalkamera ausprobieren: stellt man das Display so ein, dass ihr durch die Kamera "nach vorne" schaut, haltet die Kamera dabei aber *über* euren Kopf, und geht einen Gang entlang, indem ihr nur auf das Display schaut. ;)


    [OK, ich glaube inzwischen kann ich es nicht mehr verheimlichen, dass ich mich "ein wenig" mit dem Thema Vision beschäftige, oder? ;)]


    Aber letztlich ist es natürlich Runden-Sache, was zugelassen wird, und was nicht. ;) Der beiden wichtigsten Punkte sind in meinen Augen immer noch: Alles, was der Spieler kann, können auch die NSCs, und vor allem hat wirklich alles einen Nachteil... die Guncam kann wie jede andere Digitalkamera durch ein Anti-Kamera-System geblendet werden, Ultraschallsicht lässt sich durch einen Stillezauber zerlegen (oder im Prinzip auch einen guten White-Noise-Generator), und das beste Sichtsystem hilft nichts, wenn der Spieler die Wahrnehmungsprobe verpatzt! :D



    PS: Eins noch: was hat gerade dieses Thema mit SR3 vs. 4 zu tun? :)

  • Schöne Bilder. Ziemlich genau so habe ich mir das auch bisher ehrlich gesagt auch vorgestellt. Dazu vielleicht noch ein vergleichsweise simple Analyse des Bildinhaltes um die "Stärke" der Modalität (ob jetzt Infrarot oder Restlicht) im fusionierten Bild zu bestimmen (indem man beispielsweise einfach die Varianz in des Bildinhaltes der jeweiligen Modalität als Wichtungsfaktor verwendet - Hohe Varianz = hohe Informationsdichte).


    Was den Ultrasound angeht: Durch verschiedene Frequenzen intermettierend ausgesandt kann man die Samplingrate und Reichweite problemlos erhöhen, weil man nicht warten muss, bis der zuletzt ausgesandte Puls zurückgekehrt ist, weil man auch überlappende Signale dann problemlos auseinanderrechnen kann. Verwendet man dann noch verschiedene Envelope-Funktionen für den Frequenzpuls können sogar die gleichen Frequenzen auseinandergerechnet werden und somit auch deutlich längere Laufzeiten verarbeitet werden.

  • Nicht meckern, besser machen, UV... wenn du dich schon des Lobes für die anschaulichen Beispiele enthälst. :mrgreen:


    @Guncam: Nicht vergessen, dass das Bild problemlos durch einen Lagedetektor aber zumindest in die gewohnte Ausrichtung versetzt werden kann (da man Waffen ganz gerne horizontal um die Ecke hält, statt senkrecht). Das können heutige Guncams schon.


    @Tiefenwahrnehmung: Stereopsis, also der Versatz des Bildes durch die räumliche Disparität des Bildes auf der Retina beider Augen, sowie Konvergenz (die Ausrichtung beider Augen auf einen Punkt in der Tiefe) geben zwar durchaus Tiefenwahrnehmung, aber eher auf kürzere Distanz. Deren Präzision nimmt aber logarithmisch ab und auf große Distanzen verlassen wir Menschen uns (wie ein Großteil der Fluchttiere die über kaum Stereo-Sehen verfügen, da sich das Sichtfeld der seitlich am Kopf legenden Augen kaum überlappt), auf monokulare Hinweise wie: gegenseitige Verdeckung, Akkomodation des Auges, Perspektive, Größe bekannter Objekte, Bewegungsparallaxe und Schattenwurf.

  • Geht nicht gut, sein Beispielbild ist ja kein 3D-Bild. Aber im Grunde ist das genau das, ihr kennt doch die graue Figuren/Objekte Darstellung beim 3D-Modell basteln, bevor die Texturen drauf kommen. Das nur mit Oberflächenstrukturen/Materialbeschaffenheit, aber eben ohne Farben und Lichtschatten, trotz allem sehr detailliert in der Nähe, je weiter es weg ist um so ungenauer wird es.


    Aber wenn wir schon dabei sind.
    Restlichtverstärkung: Ist oder wird durch mehr oder bessere Lichtsensoren erreicht, d.h. nicht nur wie bei Raffo die Helligkeitskanäle hoch zu reißen, sondern verlustfrei besser sehen. Oder anders gesagt, schau dir die gleiche Szene mit einer 40 Watt und mit einer 100 Watt Lampen an. Die 100 Watt Lampen geben dir einfach mehr Licht für deine Sicht und du erkennst auch besser Farben. Nachteil du wirst von hellen Lichtquellen schnell geblendet, es sei denn es wird automatisch runter geregelt.
    Infrarot- oder Wärme-Sicht: Gibt dir nicht nur warme oder heiße Quellen an sondern alle Temperaturen, d.h. bei Raffo müssten nicht nur die Lampen leuchten, sondern auch alles um ihn herum kühl oder gleich warm erscheinen, z.B. Metall kühlt schneller ab als Stein oder Holz, dadurch ist es auch möglich verschiedene Materialien zu sehen. Wärmestrahlung und dessen Abwesenheit werden hier gemessen. Aber Raffos Bild kann trotz allem ähnlich aussehen, vorausgesetzt das steuernde Programm oder das Gehirn, setzt den Nullpunkt der Darstellung auf die Raum-/Umgebungstemperatur, somit wären nur heißere oder kältere Quellen zu sehen.


    Die tatsächliche Erscheinung der kombinierten Daten, hängt von dem Darstellung im Programm ab oder im Falle der natürlichen oder magisch verstärkten Sicht, wird es auch noch einmal anders aussehen. Ich könnte mir gut vorstellen das ein Programm oder auch die natürliche/magische Sicht so eine Kombination nicht einfach übereinander legt, sondern immer das beste Ergebnis wählt. z.B. da wo kein oder zu viel Licht ist wird das Ultrasound- und Wärmebild einsetzt und ersetzt dort die Mängel.
    Im Fall von Raffos Beispiel, würde man vermutlich einfach viel mehr Details sehen, z.B. die Lampen bis ins Detail (also den die Körper durch das Echolot, die genaue Temperaturabstufung), klarere Farben und Materialien, durch ein Echolot-3D-Bild, welches Oberflächenstrukturen darstellen kann, durch Temperaturunterschiede können Materialien besser unterschieden werden, durch die allgemein bessere Sichtbarkeit durch mehr Licht kann man besser sehen, vor allem Farbabstufungen.
    Auch Rauschen und Flimmern oder blinde Stellen können Aufschluss auf die Umgebungssituation geben, denn sie bedeuten auch etwas.

  • Ultra Violet


    Zitat

    Infrarot- oder Wärme-Sicht: Gibt dir nicht nur warme oder heiße Quellen an sondern alle Temperaturen, d.h. bei Raffo müssten nicht nur die Lampen leuchten, sondern auch alles um ihn herum kühl oder gleich warm erscheinen, z.B. Metall kühlt schneller ab als Stein oder Holz, dadurch ist es auch möglich verschiedene Materialien zu sehen. Wärmestrahlung und dessen Abwesenheit werden hier gemessen. Aber Raffos Bild kann trotz allem ähnlich aussehen, vorausgesetzt das steuernde Programm oder das Gehirn, setzt den Nullpunkt der Darstellung auf die Raum-/Umgebungstemperatur, somit wären nur heißere oder kältere Quellen zu sehen.


    Bei einigen Wärmebildkameras kann man schon heutzutage Temperaturbereiche ausblenden, vor allem wenn ein überlagertes Bild dargestellt wird.

  • Gehufpt wie gesprungen sind Raffos Beispiele sehr praktisch und wer es genauer als Beispiel haben möchte der kann sich ja gerne hinsetzen und eine "ordentliche" Bildserie erstellen. Da freut sich sicher die ganze Community. Wenn mich nicht alles täuscht hat Raffo aber nicht einfach die Helligkeit beim Lichtverstärkten Bild hochgedreht, sondern mit Gamma gespielt und das ist eine recht gute Simulation für Restlichtverstärkung.


    Nebenbei möchte ich nochmal anmerken, dass die "normale" Sicht dir auch nicht die tatsächlichen Farben liefert, sondern korrigierte Farben für Umgebungslicht, Sichtverhältnisse und benachbarte Farben. Ebenso wird sich eine Infrarot-Sicht sich auch anpassen und für den umgebenden Standard korrigieren. Darüber hinaus wurde bereits gezeigt, dass crossmodale Information im Gehirn in statistisch optimaler Weise zusammengebracht wird. D.h. bei diesen Sichtweisen würde das Gehirn also immer die Sicht stärker gewichten, die gerade mehr Informationen liefert (meistens die mit einer höheren Varianz im Signal).

  • "Schattenläufer" schrieb:

    1. Ich habe einen Chummer mit Cyberaugen + Augenlicht + restlicht Verst.+ Infarot und Ultra Schall. Dessen Spieler beruht auf der Auffassung das dieser Chummer alle verschiedenen Sichten überlagern (ganz schnell durchschwitchen kann /schnell wechseln hintereinander) kann und somit immer den kleinsten kombinierten (mit Ultraschall) Sichtmodifikator bekommt. Ich finde in den Regeln kein Satz der das klar definiert ob es geht oder nicht obwohl ich "geht nicht" sagen würde. Was sagt ihr dazu?


    Nun, eine "einfache" Antwort dazu gibt es nicht. Als ersten Ansatzpunkt lege ich Dir jedoch die letzten beiden Seiten des Cyberware-Kapitels im Mensch & Maschine nahe, dann da werden einige Aussagen zum regeltechnischen Gebrauch gemacht (und leider auch technisch / biologisch eher unsinnige Beschreibungen für die Funktionsweise [natürlicher] IR-Sicht abgegeben) und es werden die Basis-Sichtmodifikatoren nochmal tabellarisch aufgelistet. Zusätzlich sind da natürlich noch die bereits im Grundregelwerk beschriebenen Handlungen (insbesondere die freie Handlung für die Aktivierung / Deaktivierung von Cyber(suby)systemen).
    Der Kurzabriss aller relevanten Regeln lautet wie folgt:


    • Es ist möglich mehrere (kybernetische/natürliche) Sichtsysteme gleichzeitig aktiv zu haben.
    • Die jeweiligen Systeme werden regeltechnisch störungsfrei überlagert, wenn es darum geht die beste Basis-Sicht zu ermitteln. Die Überlagerung ist nicht störungsfrei, wenn es um Blitz- und Blendeffekte geht (wozu z.B. auch Nebel und Rauch gehören). D.h. dass jemand mit (natürlicher) IR- und Normalsicht in totaler Finsternis steht, er die Sichtmodifikatoren der IR-Sicht erhält, weil diese "besser" als die Normalsicht funktioniert. Steht die betreffende Person jedoch z.B. in Thermorauch, dann gilt der schlechtere Sichtmodifikator (im Beispiel IR-Sicht), solange beide Sichten aktiv sind (im Fall von Zwergen und Trollen ist die natürliche IR-Sicht nicht abschaltbar ... es sei denn sie lassen sich ihre natürliche IR-Sicht zusammen mit den natürlichen Augen entfernen). Etwas kritisch ist diese grundlegende Regelung im Hinblick auf die Modifikatoren bei leichtem bzw. schweren Rauch/Nebel/Regen, da die zwar grundlegend zu den Blitz- und Blendeffekten zählen, aber im eigentlichen Sinn keine Überreizung herbeiführen. Da empfehle ich dann immer eher der besseren der möglichen Modifikatoren zu verwenden.
    • Wurde eine anhaltende Blendung eines Sichtsystems bewirkt (z.B. mit einer Blendgranate), bringt das Abschalten des Systems nichts mehr. Der Blendeffekt bleibt für die regeltechnisch festgelegte Restdauer erhalten.
    • Auch wenn es streckenweise keinen Sinn macht, ist die Ultraschallsicht in diesem Kontext eine völlig normale Sicht und unterliegt den obigen Regelungen, während sie anderweitig mit völlig eigenständigen Regeln ausgestattet ist. Die erwähnte Tabelle im M&M ist in Bezug auf Ultrasound übrigens fehlerhaft, da nur die Modifikatoren angegeben sind, die sich ergeben würden, wenn jemand neben Ultrasound nur über Normalsicht verfügt. Laut Regeln halbiert Ultrasound jedoch explizit die jeweils geltenden Sichtmodifikatoren ... was im Fall des im Thermorauch stehenden Charakters mit IR- und Normalsicht dann ein +4 bei kybernetischer und ein +2 für natürliche IR-Sicht wäre und nicht das in der Tabelle angegebene +1 (basierend auf der +2 für Normalsicht).
    • Ein "schnelles Durchswitchen" aller verfügbaren Sichtsysteme, um immer nur den jeweils idealsten Modifikator zu erhalten - wie es Deinem Mitspieler vorschwebt - ist regeltechnisch so nicht möglich, da - wie bereits korrekt angemerkt wurde - die Aktivierung und Deaktivierung von Cyber(sub)systemen immer mindestens eine freie Handlung je System verbrauchen.


    Zitat

    2. Zum Ultra Schall in den Cyberaugen stelle ich mir die Frage wie der Char Ultraschall sieht (er hat keine andere Cyberware im Körper ausser Cyberaugen)? Oder ist es ein Instinkt der sagt wo etwas steht? Oder...hilfe...


    Nun, von den technischen Unwägbarkeiten einer Ultraschallsicht wie in SR mal abgesehen, dürfte die beste Vorstellung die sein, wie sie z.B. im ansonsten eher schlechten Film Dare Devil dargestellt wurde. Auch wenn man mit Ultrasound anders als besagter Comicheld die Umgebung nicht hört und im Gehirn dann ein Bild daraus formt, sondern die Umgebung bereits vom Sichtsystem als Bildinformation für das Sehzentrum präsentiert bekommt: Das Ultrasoundsystem berechnet aus den Echos des ausgestoßenen Schalls die Raumstruktur und "zeichnet" ins Blickfeld die Umrisse von Objekten ein (ggf. auch mit Oberflächeninformationen). Da es sich in SR wie gesagt konzeptionell um eine Sichtüberlagerung handelt, betrachte ich selbst das Ganze als eine Verstärkung des Kontrastes an Objekträndern, wenn ich denn mal eine Beschreibung dazu abgeben muss.


    Zitat

    3. Ein anderer Chummer hat Cyberaugen mit elektronischen Sichtvergrösserung III. Er trägt dazu noch ein Vollhelm. Dieser Vollhelm hat das Infarotsystem drinn. Kann der Chummer alles miteinander kombinieren?elektr. Sichtvergrösserung (Chummer) + Infarotsystem (Helm)?
    restlicht Verst. (Chummer) + elektr. Sichtvergrösserung (Helm)?


    Kurz gesagt: Regeltechnisch "Ja".


    Zitat

    Guncam anderes Problem:


    4. Wenn ich einen Chummer mit Cyberaugen + Bildverbindung + Waffe mit Smartgunverbindung + Guncam auf der Waffe habe. Und dieser Chummer die Guncam nutzt zum Schiessen berechnen ich den Mindestwurf fürs Schiessen so als der Chummer ohne Guncam mit Smart schiessen würde? (fehlt vielleicht noch eine Cyberware, funktioniert es überhaupt?)


    ~Argh~ Eines der alten GunCam-Probleme ... Nun auch da gibt's keine einfache Antwort, aber es läuft auf folgendes hinaus: Die Regeln sehen es nicht vor, dass wenn jemand die GunCam statt seiner eigenen Augen zur Zielerfassung nutzt, hierbei der Smartbonus zum Zug kommt, selbst dann nicht, wenn der Charakter anders als in Deiner obigen Aufzählung (da fehlt nämlich die Prozesoreinheit und das Induktionspad bzw. dessen geeigneter Ersatz [in Form von Datenbuchse und Kabelverbindung zur Waffe]) sogar über eine vollständige Smartgunverbindung verfügt. Man kann eine elendig lange Diskussion darüber führen, warum das so Sinn macht und warum nicht ... anhand der Regeln wird man's aber nicht klären können. Tu Dir selbst allerdings einen Gefallen und erlaube es garnicht erst, dass mit montierter GunCam und Smartverbindung mit maximaler Eigendeckung ohne weitere eigene Aufschläge, aber mit Smartbonus um Ecken geschossen wird, indem einfach nur der Arm in den betreffenden "Gang" gehalten wird.


    Zitat

    Nach einem Telefonat heute Abend mit einem Spieler kam die Diskussion hoch (seiner seits) das das Fadenkreuz der Smartverbindung in beiden Augen wäre und die Bildverbindung nur in einem


    Da die Bildverbindung gemäß M&M regeltechnisch ein vollwertiger Ersatz für das limitierte Augendisplay zur Darstellung des Fadenkreuzes einer Smartgunverbindung ist und zudem nirgends geschrieben steht, dass eine Bildverbindung nur in einem Auge ist, ist zumindest der Teil der Diskussion hinfällig, auch wenn ...


    Zitat

    und somit es schwerer zu schiessen wäre wegen der bei Guncam nicht vorhandenen Tiefenwahrnehmung.


    ... besagter Spieler natürlich nicht unrecht damit hat, dass ein nicht steroskop aufgenommenes Bild (die GunCam beinhaltet keine Beschreibung die besagt, dass es sich um eine 3D-Aufnahme handelt) in einer Bildverbindung - selbst wenn sie faktisch in beiden Augen vorhanden ist - nicht die Tiefenwahrnehmung liefert, die der Smartprozessor ggf. benötigt, um das Fadenkreuz korrekt vom normalen Sichtbereich stattdessen im eingeblendeten Bildbereich der Bildverbindung darzustellen.


    Zitat

    Meiner Meinung ist das falsch. Fadenkreuz nur in einem Auge und zum Schiessen braucht man keine Tiefenwahrnehmung da ich nicht die Entfernung zum Schiessen abschätzen muss. Bitte korriegiert mich wenn ich mich irren solte.


    Das Problem ist wie gesagt mindestens zweistufig:


    • Das Fadenkreuz einer "normalen" Smartverbindung wird wie gesagt in den eigenen Sehbereich eingeblendet. Daher ergibt sich für den Smartprozessor bei der GunCam-Idee folgende Zusatzhürde: Er muss das Fadenkreuz statt für den eigenen Sichtbereich, die eigene Körperhaltung und Waffenposition nun für den Sichtbereich der GunCam in Relation zur Körperhaltung und die Waffenposition ermitteln. Ob der Smartprozessor das so ohne weiteres kann? Darüber kann man endlos debattieren, aber in den Regeln wird man nichts dazu finden. Sicherlich kann man Vergleiche zum smartgestützten Abfeuern von Fahrzeugwaffen ziehen, aber so richtig aufgehen tut das Ganze nicht.
    • Von der technischen Beschreibung her, basiert die Einblendung des Smartlink-Fadenkreuzes sehr wohl auf Tiefenwahrnehmung und einer ganzen Reihe anderer räumlicher Informationen. Deswegen ist einerseits eine der Subkomponenten ja auch ein limitiertes Sim-Rig, welches die sensorische Wahrnehmung inklusive der Sehwahrnehmung beider Augen des Trägers ausliest und andererseits bekommen Träger von einseitigen Cyberaugenimplantaten explizit nur die halbierten Boni der jeweiligen Systeme ... was regeltechnisch auch die Smartgunverbindung betrifft. Selbst wenn man jetzt annimmt, dass das limitierte Sim-Rig entweder das durch die Bildverbindung in beide Augen eingeblendete GunCam-Bild über den Sehnerv abgreift oder stattdessen gleich das GunCam-Signal direkt in den Smartprozessor eingeschleift wird, so ist die Qualität des GunCam-Bildes - sofern es nicht selbst stereoskop ist - schlechter als das mit den eigentlichen Augen wahrgenommene Bild. Von daher ist die Argumentation, dass die schlechtere Tiefenwahrnehmung aus dem GunCam-Bild eigentlich den Smartbonus im Vergleich zur Einblendung in den normalen Sichtbereich, basierend auf der stereoskopen Wahrnehmung der Augen reduzieren müsste durchaus plausibel.


    Ich bleibe insgesamt bei meinem Rat: Lass das mit dem "Um die Ecke feuern per GunCam mit Smart-Bonus" lieber aus dem Spiel ... Neben reichlich langen, nicht zielführenden Diskussionen bewirkt das am Ende nur unliebsame Situationen, wenn plötzlich auch NSCs (die sind nunmal nicht dümmer als SCs) plötzlich auf die gleiche Weise um Ecken ballern.
    Wer tatsächlich nen Arm in einen Gang hält und per GunCam auf Ziele ballern will, der bekommt streng nach Regeln einen Mindestwurfaufschlag +3 über dessen Wegfall man aufgrund der GunCam reden kann und umgekehrt ist er mit einem +6 selbst vor Angriffen geschützt. Smartboni gibt's schlicht keine ...

  • Nun....
    in SR4 ist im Smart eine Guncam eingebaut und gerade das "nur Hand rausstrecken und um die Ecke Ballern " ist sehr wohl möglich. Inclusive dem Smartbonus (aber auch mit einem IIRC -2 Malus weil um die Ecke schiessen,was den Smartbonus neutralisiert)



    HokaHey
    Medizinmann

  • Gab es in SR3 eigentlich jemals wirklich REGELN für die Guncam?
    Ich kann die immer nur als Gegenstand finden, aber nie eine Beschreibung/Regel für den Gebrauch.

    Im Jare 2005 wurde SR4 erschaffen. Das machte viele Leute sehr wütend und wurde allenthalben als Schritt in die falsche Richtung angesehen.

  • "Cochise" schrieb:

    Anderes System ... anderes World-Feeling ... insgesamt deutlich andere Gesamtwirkung des Smartlinks auf das Ergebnis einer Probe ...


    Ich weiß :) nur ist SR4 nahe genug an SR3 dran,das man ruhig rüberschielen kann (es gibt genug Leute,die sich auch für ihre SR3 Runde aus Regeln von SR4 bedienen )
    nur wie das jetzt Regeltechnisch in SR3 gehandelt wird ,oder ob man Hausregeln dafür braucht....dafür seid Ihr SR3 Spezis da


    HougH!
    Medizinmann

  • "Ultra Violet" schrieb:

    Das Beispiel für Ultrasound ist viel zu schlecht! Hier können viel genauere Details gesehen werden siehe Fledermäuse, als Beispiel der Natur.


    Prinzipiell stimme ich dir da natürlich zu, es gibt keinen Grund, warum ein System, dass ohnehin schon räumliche Wahrnehmung über Echos berechnen kann, das nicht auch detailliert können sollte. (In der Theorie bis zu einer Objektgröße runter, die der... doppelten (da bin ich mir nicht sicher, lasse mich aber gerne korrigieren?) Wellenlänge entspricht, also Details bis etwa 3,5mm.) Nur da ich, wie du korrekt festgestellt hast, kein echtes 3D-Bild zur Verfügung hatte, musste ich das von Hand nachzeichnen, und da ich diese Woche noch antworten wollte, habe ich mutwillig ein paar Details weggelassen. ;)


    Restlichtverstärkung: Es gibt mathematisch keinen Unterschied zwischen "mehr Photonen im Sensor" oder einer Skalierung der fertigen Sensordaten, lediglich das Bildrauschen (was bei meinem Beispiel natürlich im Schatten extrem ist!) wird besser. Und nur fürs Protokoll: Ja, ich habe hier mit dem Gamma-Wert gespielt, der eine "streng monoton steigende Abbildung" ist, also auch verlustfrei. Das Problem ist eher, dass die Kamera vorher halt schon im Schatten miese Daten aufgenommen hat, aber ja, genau das ist ja der Sinn einer Restlichtverstärkung vor dem Sensor.


    "Infrarot- oder Wärme-Sicht": Wie gesagt, das was du da jetzt einbringst ist "Thermografische" Sicht, die ausschließlich Temperaturinformationen aufnimmt und mit einer ganz eigenen Farbpalette übersetzt (das klassische "bunte" Wärmebild). Ich ging in meinem Beispiel einfach von einem Farbspektrum aus, das "tiefer" nach unten geht, eben bis in den "nahen" Infrarotbereich hinein (wie es z.B. auch Bienen sehen können). Der Unterschied ist grob gesagt die verwertete Wellenlänge (nahes Infrarot ~1µm, mittleres IR der Wärmebildkamera ~10µm, Wikilinks für Interessierte (mit netten Bildern): Infrarotstrahlung (beachtet die ganz regulären Schatten im Beispielbild!) und Thermografie).
    Nur um eines klar zu stellen: Natürlich kann man die "IR-Sicht" aus SR sowohl als "Bienensicht" im nahen IR-Bereich interpretieren, als auch als "Thermografische Sicht" im mittleren Bereich. Ich persönlich gehe normalerweise von der "Bienensicht" aus durch die Überlegung, dass Zwerge und Trolle diese Sicht ja schon auf natürlichem Wege haben, und ich mir deshalb eher vorstelle, dass deren Stäbchen im Auge halt einfach auf ein breiteres Spektrum reagieren, als es das beim Norm der Fall ist. Sollte jemand in seinem SR hier weiter gehen und die volle Thermografie zulassen ist mein Beispielbild natürlich einfach falsch, bitte ignorieren. ;)


    Kombination der Daten: Auch hier gibt es selbstverständlich dutzende Möglichkeiten, allein was die Verwendung der Ultraschallinformationen angeht. Man könnte sich auch gut vorstellen, dass selbiges überhaupt erst angezeigt wird, wenn die Bilderkennungssoftware feststellt, dass Kanten in der echten Welt selbst durch Restlicht, IR und andere Optionen nicht klar zu erkennen sind, und dann subtile Farbfilter überlagert (Um bei meinem Restlicht-Beispiel zu bleiben: Der Durchgang in die Halle zwischen den kleinen Anbauten, so halblinks in der Mitte, ist einfach wegen der besprühten Wände schlecht zu erkennen, deshalb könnte eine raffinierte Software die Ultraschalldaten hier nutzen, um bewusst Falschfarben zu überlagern, um den räumlichen Unterschied zu betonen... so als spontane Idee). Außerdem kann man fast davon ausgehen, dass die Software parallel mehrere Optionen durchspielt, und je nach Situation (oder Teilbild!) eben den gut ausgeleuchteten Gang nicht noch verstärkt, dafür den Einblick in den dunklen Nebenraum entsprechend aufbohrt. (Blendeffekte kommen daher üblicherweise dadurch, dass sich die Lichtverhältnisse zu schnell ändern, als dass die Software vorher reagieren könnte.) Auch hier soll mein Bild nur eine Möglichkeit beispielhaft verdeutlichen. ("Weitere Möglichkeiten seien dem geneigten Leser als Übungsaufgabe überlassen" :P)