"Warentester" schrieb:@UV:
Das Problem ist: Du kannst aus der 2D Repräsentation der Welt, die den Augen zur Verfügung steht nicht vorhersagen, wo eine Kugel auftreffen würde, da das von der Distanz von der Waffe zum Ziel abhängig ist. Smartgun ist eben nicht, wie beim Egoschooter in der Mitte des Sichtfeldes.
Davon bin ich auch nie ausgegangen. Das Fadenkreuz wandert im Blickfeld des Schützen je nach wo die Waffe hin zeigt. Und die Distanz von Waffe zum Ziel kann auch durch verschiedene Mittel bestimmt werden und zählt für mich unter den Punkt der Smartlinkberechnungen. Und es gibt sehr wohl Möglichkeiten aus einem 2D Bild eine 3D Bild zu berechnen, gerade wenn man eine oder ein paar feste Größen hat. So funktioniert übrigens die optische Erfassung der AR heutezutage. Man hat eine feste Größe den AR-Marker der die Position darstellt und anhand der optischen Verzerrungen und Größenunterschiede auf dem 2D Bild und dem Vergleich mit dem Informationen über den Marker weiß das Programm wo und wie der Marker im Bild liegt und kann dem entsprechend das AR-Tag/Modell dort in der Richtigen perspektivischen Verzerrung anzeigen.
Nehmen wir jetzt mal an in Zukunft (SR) werden unzählige Marker und Größeninformationen für die AR Darstellung zur Verfügung stehen. Diese Informationen helfen dann dabei die Entfernung nur anhand eines Bildes im Abgleich zu den Orginalgrößenverhältnissen zu erfassen. Nur als Beispiel für diesen einen Weg, ich geh wie schon geschrieben davon aus das in SR die Systeme mehr als nur einen Weg gehen eher wird es eine doppelt und dreifache Absicherung und den verbundenen Abgleich geben.