World of Gothic Archiv > Gothic Diskussion
Gothic + GeForce3...
Seite 1 von 2  1  2 
23.05.2001, 16:03 #1
Markus
Beiträge: 71

...funktioniert ohne Probleme, allerdings gibt es keine großen Geschwindikeitsvorteile dadurch, zumindest auf meinem System (PIII-800@840) nicht.

Ich wollte das nur all den Leuten mitteilen, die so verrückt sind wie ich, denn ich hab mir heute eine GeForce3 gekauft. Ihr habt also in puncto "Gothic" keine Probleme zu befürchten. :)
23.05.2001, 16:06 #2
hundder
Beiträge: 2.020

bin erst so verückt gewesen mir einen neuen PC zu kaufen
da ist ne GE3 leider nicht mehr drin :D
und daste keine Probleme hast ist wohl logisch, bei der leistung dieser Karten
23.05.2001, 16:15 #3
brainbyte
Beiträge: 240

Soweit ich das gelesen habe ist aber ne Geforce 2 Ultra momentan von der Performance her die bessere.
Erst ab Doom 3 sollen die GF3 Karten voll ausgenutzt werden können.
23.05.2001, 16:36 #4
Don-Esteban
Beiträge: 9.734

Da wollte mal einer unbedingt allen erzählen, daß er ne GeForce3 hat... toll!!
Ich bin ja sooo beeindruckt ;)

Ich bin zufrieden mit 'ner hornalten GeForce 1, da läuft alles flüssig drauf, warum sollte ich also einer Firma, die in letzter Zeit weder mit Innovationen, noch mit guten Preisen punktet, sondern nur für schlechte Schlagzeilen sorgt, mein schwer verdientes Geld in den Rachen werfen?
23.05.2001, 16:36 #5
Novizen_Socke
Beiträge: 324

Ich weiß net ob das ein lausiges Gerücht ist.-
-aber ich habe gelesen,dass die GeForce4 für Februar 2002 geplant ist.Die soll vier mal so schnell sein wie eine GeForce Ultra (die ich übrigens auch habe).Wer sich diese Karte kauft,hat für eie lange,lange Zeit gute Grafik.
(Novizen_Socke übernimmt für diese Info keinerlei Verantwortung,weil er es für ein Gerücht hält)
23.05.2001, 16:47 #6
Don-Esteban
Beiträge: 9.734

Glaubst du das echt?
Das wird doch von jeder Grafikkarte behauptet: die alte kannste wegschmeißen, weil die neue ja sowas von toll ist und sooooo schnell, und überhaupt da sind ein Haufen neuer Funktionen drauf, da wird DirectX19 unterstützt, 10-faches Mip-Mapping (Environmental und weiß der Teufel, was noch alles), Full-Scene-Anti-Aliasing ohne Performanceeinbruch, quadrolineares Filtering vorwärts und rückwärts,dynamisch berechnete Lightmaps mit infiniten Lichtquellen, Shading ohne Ende (Flat, Gouraud, Vertex, blablabla), Texturkompression jeder Art, Hidden Survace Remove und so weiter...laberlaber blablabla

bloß: wer brauchts?
23.05.2001, 17:14 #7
Markus
Beiträge: 71

Ich wollte tatsächlich nur darauf hinweisen, daß Gothic mit der GeForce3 läuft, nicht um damit "anzugeben". Mit dem neuen Kyro-Chip scheint es ja auch Probleme zu geben, deshalb.
23.05.2001, 17:38 #8
Don-Esteban
Beiträge: 9.734

@Markus:
Was soll ich denn dazu sagen?
Sorry, daß ich sowas dachte?

Aber mal ehrlich, warum sollte das auf ner GeForce 3 nich laufen? Die is auch nich so anders, als andere nVidia-Karten. So eine Nachricht ist für mich kein Posting wert (hat in etwa den Wert von: "Auch heute morgen geht die Sonne auf").
Die Treiber gelten nicht umsonst von einer TNT bis hoch zur GeForce 3. U. a., weil die 3 sich von der GeForce 2 oder 1 nicht großartig unterscheidet, nur in Taktung (und somit im Speicherdurchsatz) und Anzahl der Features. Seit der T&L-Engine is nich so viel Aufregendes passiert. Die Neuerungen der GeForce 3 müssen erstmal in Software implementiert werden, das kann noch ein Jahr dauern. Also warum gleich die neuesten Karten holen und damit das Geld (meiner Meinung nach) zum Fenster rausschmeißen, wenn die Software sowieso hinterherhängt?
23.05.2001, 17:48 #9
The Eldar
Beiträge: 705

Markus hat schon recht, wenn er uns Bescheid sagt, dass es mit einer GeForce 3 keine Probleme gibt...

Warum?

1. Ich kann mir nicht vorstellen, dass PB eine 3er GeForce zum Testen hatte...was das bedeuten kann, wissen wir alle...

2. Beim OS-Wechsel (aufwaerts) kann es auch Probleme geben (vielleicht nicht gerade bei Gothic)...wenn also eine neue Grafikkarte moeglicherweise alte Techniken nicht mehr implementiert hat, weil die mit einer neuen Art von Rechenoperation schneller und zuverlaessiger durchgefuehrt werden kann, dann kann es sehr wohl Probleme geben...gerade bei Gothic...

3. Der Kyro2 laeuft ja angeblich auch nicht mit allen Spielen problemlos...oder ueberhaupt....


Nichtsdestotrotz hat es sich natuerlich schon so angehoert, als ob er uns sagen wollte: "Aetsch, ich hab eine...." ..
23.05.2001, 18:26 #10
Markus
Beiträge: 71

Also für mich war es nicht vollkommen klar das "Gothic" auf einer GF3 unbedingt funktionieren muß, darum war es auch das erste Spiel welches von mir getestet wurde. Praktisches Beispiel : Ich habe jetzt mit einigen "älteren" Spiele leichte Probleme (z.B. kleine Graphikfehler), die ich vorher mit der GF2-MX nicht hatte, obwohl ich exakt die gleichen Treiber wie vorher verwende (Det. 12.00).

Zum Thema "GF2-Ultra" kann ich nur soviel sagen : Die GF2-Ultra Karte kostet bei uns um ung. 1400,- öS (ung. 200 DM) MEHR als die GeForce3, und das obwohl sie langsamer ist (und das ist sie definitiv) und natürlich die neuen Features der GF3 nicht beherrscht, die vielleicht ja irgendwann mal doch gebraucht werden.
23.05.2001, 18:38 #11
Don-Esteban
Beiträge: 9.734

quote:
Zitat von Markus
[...]und natürlich die neuen Features der GF3 nicht beherrscht, die vielleicht ja irgendwann mal doch gebraucht werden.


Eben...irgendwann...vielleicht so kurz vor Weihnachten oder zum Jahreswechsel (schätz' ich mal). Oder aber noch später. Die GeForce 1 gibts jetzt auch schon seit 1 1/2 Jahren und am Anfang gabs kein Spiel, das T&L unterstützt hätte, jedenfalls nicht per D3D, Quake 3 Arena über OpenGL mal abgesehen, aber das kam auch erst raus, nachdem die Karte schon ein paar Monate auf dem Markt war. Es dauert eben immer etwas, eh neue Techniken in Software implementiert werden. Die GeForce 3 is schon ne tolle Karte, aber zum jetzigen Zeitpunkt wird alles, was neu an ihr ist, noch nicht ausgenutzt.
Später werd ich mir vielleicht auch eine holen, es sei denn, ein anderer Hersteller kommt mit ner besseren Karte auf den Markt.
23.05.2001, 18:52 #12
Markus
Beiträge: 71

@Don-Esteban:

Das sollte hier zwar kein Threat über die GF3 werden, aber trotzdem nochmal schnell ein Kommentar von mir : Du hast schon recht, für mich waren es aber andere Gründe, warum ich mir die Karte gekauft habe. Mit meiner GF2-MX hatte ich ab 1024 x 768, 32 Bit Farbtiefe, immer Einbrüche in der Performance, die mich schon lange genervt haben. Eigentlich hab ich den Kauf der GF2-MX immer bereut, da es nun mal eben keine Highend-Karte ist. Diesen Fehler wollte ich dieses mal nicht machen, deshalb die GF3, mit der nun auch endlich das 1024 x 768 Problem nicht mehr besteht, selbst nicht bei eingeschaltenem Anti-Aliasing.

Aber, um es nocheinmal klar zu machen : Ich wollte mit dem Posting nur deutlich machen, daß diejenigen von euch, die sich eine GF3 kaufen möchten, nicht befürchten müssen danach nicht mehr Gothic spielen zu können. Hier geht es schließlich um eine Menge Geld, daher dachte ich das es manche von euch interessieren könnte. Sollte ich mich getäuscht haben, dann kann der Admin den Threat ja löschen.
[Editiert von: Markus am 23-05-2001 19:54]
23.05.2001, 19:25 #13
Don-Esteban
Beiträge: 9.734

quote:
Zitat von Markus
@Don-Esteban:

Das sollte hier zwar kein Threat über die GF3 werden, aber trotzdem nochmal schnell ein Kommentar von mir : Du hast schon recht, für mich waren es aber andere Gründe, warum ich mir die Karte gekauft habe. Mit meiner GF2-MX hatte ich ab 1024 x 768, 32 Bit Farbtiefe, immer Einbrüche in der Performance, die mich schon lange genervt haben. Eigentlich hab ich den Kauf der GF2-MX immer bereut, da es nun mal eben keine Highend-Karte ist. Diesen Fehler wollte ich dieses mal nicht machen, deshalb die GF3, mit der nun auch endlich das 1024 x 768 Problem nicht mehr besteht, selbst nicht bei eingeschaltenem Anti-Aliasing.[...]


Hey, da stimmen wir ja überein! Friede, Freude, Eierkuchen :D Die MX is für Spieler wirklich nich das Gelbe vom Ei. Da is ja die gute alte GeForce 1 teilweise noch besser, mindestens, was die Bandbreite des Speicherbusses betrifft (64 bit vs. 128bit - schimpf mich aus, wenn ich mich irre).
23.05.2001, 20:02 #14
The Eldar
Beiträge: 705

...sag mir jetzt nicht, dass eine Geforce 256 SD-RAM besser ist als eine GeForce 2 MX ...
23.05.2001, 20:21 #15
Don-Esteban
Beiträge: 9.734

quote:
Zitat von The Eldar
...sag mir jetzt nicht, dass eine Geforce 256 SD-RAM besser ist als eine GeForce 2 MX ...

Ich sagte erstens teilweise und
zweitens verschwieg ich, daß ich von DDR-RAM redete, die SDR-Karten mit dem GeForce-Chip (welchem auch immer) kannste doch eh in den Skat drücken, der relativ langsame Speicher bremst den Chip schon in Auflösungen wie 1024x768 aus, bei 32 Bit sowieso.
23.05.2001, 20:59 #16
The Eldar
Beiträge: 705

...puuh...naja, waere nicht das erste Mal, dass ich etwas unnuetzes kaufe...
23.05.2001, 21:46 #17
[HW]Deathweaver
Beiträge: 1.133

@Don-Esteban:
Aber für jetzige Spiele reicht eine GeForce II MX auch in den höheren Auflösungen aus. :)
Ich spiele jetzt *angebmodusein* Gothic auf einem 22" Monitor in 1600x1200 und es läuft immer noch recht gut und sieht absolut geil aus. :) :) Jetzt probier ich endlich bald auch mal ne 3D Brille aus. *angebmodusaus* :D

Aber bei Gothic macht die Auflösung sowieso nicht soo viel aus.

@The Eldar:
Bei mir wird in deiner Signatur immer nur das Crosswinds Logo angezeigt. Schick das Bild doch einfach mir und ich lade es auf den World of Gothic Server. :) :)
[Editiert von: [HW]Deathweaver am 23-05-2001 22:51]
23.05.2001, 23:16 #18
Markus
Beiträge: 71
Es gibt doch einen GF3-Bug!
Mist, es gibt doch einen Bug, und zwar einen ziemlich schweren : Das Inventory wird nicht mehr richtig angezeigt, die meisten Felder sind entweder leer, oder aber es sind nur Bruchstücke des jeweiligen Items zu sehen. Schwer zu sagen ob das nun an den Treibern liegt (momentan Det. 12.40), oder aber doch an der GF3, bzw. ob der Fehler durch den neuen Patch entstanden ist (denke aber das mir das vorher aufgefallen wäre, auch wenn ich zu dem Zeitpunkt mit dem Spiel schon fertig war).

PB sollten sich auf jeden Fall um diesen Fehler kümmern, denn sonst könnten - im Falle eines internationalen Releases - einige Leute wohl ziemlich sauer sein.
24.05.2001, 08:48 #19
The Eldar
Beiträge: 705

@[HW]Deathweaver: ... wieso? das ist doch meine Signatur.... :D :D ...
...Ich frage mich bloss, warum ich das richtige Bild sehen kann....
Was fuer eine Internet-Anbindung benutzt du denn?
24.05.2001, 09:35 #20
brainbyte
Beiträge: 240

Deshalb würde ich allen empfehlen auf eine GF4 zu warten da sind dann auch die Erfahrungen von 3dfx Chipsätzen drin und die Karten bringen dann wirklich wieder einen ordentlichen Schub.
Aber wie oben schon gesagt die GF2 MX Karten sind größtenteils langsamer und schlechter als die Geforce 1 mit DDR.
24.05.2001, 11:45 #21
[HW]Deathweaver
Beiträge: 1.133

@The Eldar:
T-Offline. :D :(
24.05.2001, 11:58 #22
The Eldar
Beiträge: 705

analog? isdn? t-dsl?
26.05.2001, 12:57 #23
Joni Odin von Hassenstein
Beiträge: 3.925
Jaja
quote:
Zitat von Don-Esteban
[B]Da wollte mal einer unbedingt allen erzählen, daß er ne GeForce3 hat... toll!!
Ich bin ja sooo beeindruckt ;)

Ich bin zufrieden mit 'ner hornalten GeForce 1

Huuh, da wollte einer prahlen dass er eine GeForce1 hat, yeeeah. *lol* ;-))
26.05.2001, 15:27 #24
Don-Esteban
Beiträge: 9.734

@ Joni:
Lern erstmal, die vB Codes richtig zu setzen, eh du mich mit deinem müden Humor quältst.

Wenn's ernst gemeint war:
Wer jetzt noch mit 'ner GeForce 1 angeben will, der hat echt ein Rad ab!

Wenn's ein Scherz war:
Ha ha ha ha haha, selten so gegähnt.
26.05.2001, 16:12 #25
The Eldar
Beiträge: 705

@Don-Esteban: Warum so griesgraemig?
Seite 1 von 2  1  2