• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

disablen alle unsere gelegten Caches für 1 Monat

MadCatERZ

Geoguru
Zappo schrieb:
MadCatERZ schrieb:
Das dürfte der klassische Konflikt "gewachsene Anforderungen" vs. "Dafür haben wir kein Geld" sein.....
Mit der Besonderheit, daß die "gewachsene Anforderungen" hausgemacht bzw. selbstgewollt sind. Mir würde der Leistungsumfang von vor 6 Jahren o.ä. durchaus genügen. Ich bin aber zugegebenerweise ein "Grundfunktionenjunkie".
Wie gesagt, ein klassischer Konflikt. Zunächst läuft ja auch alles super, die Zugriffszahlen wachen, lass "die aus der IT" mal rumquaken, sind ja eh alles weltfremde Pessimisten, die keine Ahnung von BWL haben.

Und wenn dann die Leistungsreserven schon im Normalbetrieb verbraucht werden, sind "die aus der IT" einfach nur unfähig(dass "die aus der IT" schon vor Jahren vor dem Kollaps gewarnt haben, wird dabei dezent unter den Tisch fallen gelassen.

Mark schrieb:
Wie gesagt, das kann man heute on demand dazubuchen (oder eben wieder abbuchen), wenn man etwas mitdenkt.
Sprichst Du von Cloudcomputing? Dazu müsste man die Seite erst einmal in eine Cloud verschieben - wenn man sich denn über die Konsequenzen im Klaren ist und nicht nur ein paar eingesparte Dollars sieht.
 

Zappo

Geoguru
radioscout schrieb:
Beschwert euch bei den "Spiderern", die die Website unnoetig extrem belasten.
Hast Du da irgendwelche Quellen, die auflisten, welche Art der Nutzung welche Engpässe verursachen? Wenn man das wüßte, könnte man ja sogar eventuell darauf als Nutzer reagieren. PQs müssen ja z.B. nicht alle am Sonntagmorgen gezogen werden.

Gruß Zappo
 

Team FamBi

Geocacher
Ich wage mal zu bezweifeln, dass die Spiderer der Hauptgrund sein sollen...
Was machen eigentlich die wirklich großen Foren, wo 10.000e User gleichzeitig on sind?
Da wird so eine Datenbank noch viel mehr gequält, auch wenn die zu sendenden/empfangenden Datensätze deutlich kleiner sind...

Es soll auch Load-Balancer geben, hab ich mal gehört...
Die kosten allerdings dummerweise Geld... :D
 

Team FamBi

Geocacher
Noch besser... Dann sollte GS mal einen kleinen Cluster samt SLB basteln und gut ist's...
So riesig dürften 99% der PQs ja nun nicht sein...


Edith sagt: Dann können es die Spiderer ja erst recht nicht sein, wenn die Webseite rumzickt und die PQs auf separaten Servern verarbeitet werden... :D
 

Mark

Geowizard
radioscout schrieb:
Beschwert euch bei den "Spiderern", die die Website unnoetig extrem belasten.
Das ist das klassische Killerargument. Weil, man will doch PMs verkaufen. Wenn die Spiderei wirklich ein Problem wäre, würden sies unterbinden. Aber heulen ist einfacher, weil es Menschen gibt, die das glauben.
 

maierkurt

Geowizard
Mark schrieb:
Aber heulen ist einfacher, weil es Menschen gibt, die das glauben.
Das trifft es meiner Meinung nach auf den Punkt. Diese Diskussion haben wir schon vor Jahren geführt, spidern ist also absolut nichts neues. Sollte es wirklich ein Problem darstellen, hätte sich in dieser langen Zeit etwas dagegen tuen lassen.
 

radioscout

Geoking
Mark schrieb:
Wenn die Spiderei wirklich ein Problem wäre, würden sies unterbinden.
Vernünftige Menschen brauchen weder Sperren noch Überwachung.
Aber evtl. kommt das ja noch. Und dann werden sich die beschweren, die zu unrecht ausgebremst werden.

IIRC gab es das mal. Wenn man ein paar Cachelistings in Tabs geöffnet hatte, mußte man warten.
 

maierkurt

Geowizard
radioscout schrieb:
IIRC gab es das mal. Wenn man ein paar Cachelistings in Tabs geöffnet hatte, mußte man warten.
Warum wurde das denn wieder zurückgenommen? Hat man vielleicht festgestellt, das Spidern doch nicht der Hauptgrund ist und nicht mehr als Totschlagargument zieht?
 

radioscout

Geoking
Zappo schrieb:
Hast Du da irgendwelche Quellen, die auflisten, welche Art der Nutzung welche Engpässe verursachen?
Zahlen wird, wenn überhaupt, nur Groundspeak haben. Aber Du hast sicherlich auch in diesem Forum gelesen, wie oft nach Möglichkeiten gesucht wird, alle .de-Caches auf den eigenen PC zu übertragen und incl. aller Logs ständig aktuell zu halten. Und Dir wird nicht entgangen sein, wie oft nach Möglichkeiten gefragt wird, das auch ohne PQ zu machen.
Ähnlich wird es bei den sehr beliebten Apps sein, die nicht auf das API zugreifen. Für eine Darstellung von 50 Caches im Umkreis auf der Karte müssen 50 Listings abgerufen werden. Und das jedes mal, wenn man schauen will, was in der Nähe zu finden ist.

Was wird ein normaler Cacher machen? Zwei PQs am Wochenende und ca. 25 manuelle Abrufe von Cachelistings pro Woche?

Und wie viel Traffic verursacht ein Spiderer, der nur an zwei Tagen den Inhalt jeweils einer PQ (jeweils 1000 Listings) haben will? So viel Seitenzugriffe wie 80 normale User mit 25 Seiten pro Woche, die zwei PQs nicht mitgezählt weil die auf eigenen Servern erstellt werden.

Zappo schrieb:
Wenn man das wüßte, könnte man ja sogar eventuell darauf als Nutzer reagieren. PQs müssen ja z.B. nicht alle am Sonntagmorgen gezogen werden.
Glaubst Du das?
Wer will denn auf die aktuellsten Caches, die evtl. noch Samstag Nacht freigegeben wurden, verzichten? Oder auf einen ganzen Cachetag? Und dann noch beim Loggen sehen, daß man an einer großen Serie vorbeigefahren ist, die alle konkurrierenden :D Cacher geloggt haben und die man am nächsten WE nicht mehr suchen kann, weil sie ins Archiv gemobbt wurde? :D
 

radioscout

Geoking
maierkurt schrieb:
Warum wurde das denn wieder zurückgenommen? Hat man vielleicht festgestellt, das Spidern doch nicht der Hauptgrund ist und nicht mehr als Totschlagargument zieht?
Frag Groundspeak.
Evtl. weil es auch die normale Nutzung gestört hat?
 

Team FamBi

Geocacher
Off-Topic ist es hier ja eh schon...

Aber was bitte hat das Spidern denn nun mit der laggenden GC-Seite zu tun?
Die PQs laufen ja wohl auf separaten Servern...

Oder ist das Seekabel etwa zu dünn für die vielen Bits & Bytes?
 

Mark

Geowizard
radioscout schrieb:
Vernünftige Menschen brauchen weder Sperren noch Überwachung.
Aber evtl. kommt das ja noch. Und dann werden sich die beschweren, die zu unrecht ausgebremst werden.
Wieder so ne "Drohung". Sollen sie ihre API nicht so kastrieren, sondern für alle PM und alle Appentwickler aufmachen.

Mal davon abgesehen: "Spidern" ist nichts anderes wie eine Website mit einem Browser aufzurufen. Also das, das du regelmäßig auf GC.com machst. Ob ich das von Hand mache oder meinen Browser erledigen lasse, es macht keinen Unterschied.
 

waws

Geocacher
Hallo Groundspeak,
ich hoffe, jemand von euch liest hier mit.
Dann gebt bitte meinen Vorschlag an die Firmenleitung weiter:

Sofortige Erhöhung des Preises für eine Premium-Mitgliedschaft auf mindestens 500 $ pro Jahr.
Das wird die PM-Zahlen senken und trotzdem eure Einnahmen erhöhen.


Es werden so viele PMs abspringen, das der Traffic auf ein für eure Server verträgliches Maß sinkt, aber viele PMs werden die erhöhten Gebühren zahlen und so eure Einnahmen erhöhen.

Dieser Tipp war gratis.

Gruß
Werner
 

maierkurt

Geowizard
Mark schrieb:
Mal davon abgesehen: "Spidern" ist nichts anderes wie eine Website mit einem Browser aufzurufen. Also das, das du regelmäßig auf GC.com machst. Ob ich das von Hand mache oder meinen Browser erledigen lasse, es macht keinen Unterschied.
Im Prinzip hast du Recht, allerdings hast du nicht wirklich verstanden, was "spidern" bedeutet.
 

SharkAttack

Geoguru
Zappo schrieb:
... und in den letzten 2 Wochen schon zweimal, daß ich den halben Sonntag morgen keine Kistchen auf der Karte hatte.
Das liegt daran, dass die G$ Server wöchentlich am Sonntag zu 95% mit dem Zählen ihres Vermögens beschäftigt sind. :D
 

Börkumer

Geoguru
WuLaW scheint sehr konsequent bei seiner Ansage zu sein, deaktiviert wurde keine einzige Dose und geloggt werden die Teilchen auch weiterhin fleißig. :lachtot:
 

maierkurt

Geowizard
Börkumer schrieb:
WuLaW scheint sehr konsequent bei seiner Ansage zu sein, deaktiviert wurde keine einzige Dose und geloggt werden die Teilchen auch weiterhin fleißig. :lachtot:
Ja, habe ich auch erst gedacht. Stimmt aber nicht ganz: Er war zumindest einen ganzen Tag konsequent.
 

Mark

Geowizard
maierkurt schrieb:
Im Prinzip hast du Recht, allerdings hast du nicht wirklich verstanden, was "spidern" bedeutet.
Doch. Automatisiertes Aufrufen von Webseiten (und ggf. Verarbeiten der Daten). Nichts anderes.
 
Oben