Do. 28.04.2011
11:46 Uhr
#1
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

Hallo leute ich habe da ein grosses Problem ,undzwar ein Kumpel von mir den ich webspace gegeben habe verursacht massig Traffic ca 1GB protag was nicht sein kann, nach dem ich nun iplogger modul raufgemacht habe und den capach mal aktiviert was er vergessen hat ;-) habe ich gesehen das immer und immer wieder /index.php?gbook-show-%7Bid%7D aufgerufen wird von diversen ip´s, leider haben ich zu dem noch gesehen das in der datenbank in den koms ca 125455 einträge wahren die ich natürlich entfernt habe aber wie kann ich das nun blocken irgend jemand eine idee??
LG
betroffene Homepage:
externer Link
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
13:09 Uhr
#3
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

ja es ist ja nun aktiv das prob ist halt das immer x tausend ips auf dem link connecten und das frist viel traffic nehmen wa mal an das die page 1mb habt und wenn x connecten dan 1 mb mal x das ist scheisse^^ kann ich nicht iwie jeder der daraauf connectet sprich /index.php?gbook-show-%7Bid%7D zurück weisen das es nicht zum traffic kommt??
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
13:12 Uhr
#4
- Registriert seit
- 27.12.2005
- Beiträge
- 2.354
- Beitragswertungen

Eigener Server? Also irgendwas ab vServer?
Do. 28.04.2011
13:30 Uhr
#5
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

jop root mit froxlor , habe schon die gbook.php entfernt das prob ist halt die seite wird dan denoch angezeigt was halt traffic kostet es muss doch ne möglichkeit geben iwie ab connection zu dem link eine error.php oder so zu machen oder??
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
13:38 Uhr
#7
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

geht es auch anders ich meine schön und gut aber es ist ja nur bei einem so und nur diese url wie ich oben gepostet habe gibt es da nicht die möglichkeit einer 404 html??
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
13:42 Uhr
#8
- Registriert seit
- 27.12.2005
- Beiträge
- 2.354
- Beitragswertungen

Naja wenns nur der eine ist sperrst du halt nur die IP, ich meine es gab hier irgendwann mal nen Modul dafür.
Do. 28.04.2011
13:45 Uhr
#9
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

nene also der link wird von mehreren ips habe den ipblocker der 50 verbindung pro minute blockt das prob ist ja es sind mehrere 1000 ips auf dem link
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
13:51 Uhr
#10
- Registriert seit
- 18.10.2009
- Beiträge
- 1.160
- Beitragswertungen

Ich banne bei mir auf meinen Debian system die ip´s immer selber, da die IP sich ja nit ändert von den spammern.
Mit
iptables -A INPUT -s IP -j DROP
danach Apache2 neu starten
/etc/init.d/apache2 restart
Zuletzt modifiziert von whazza am 28.04.2011 - 13:53:11
ez-skinz.com
Unmögliches wird sofort erledigt, auf Wunsch wird auch gehext. Nur Wunder dauern etwas länger.
Do. 28.04.2011
13:52 Uhr
#11
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

das ist ja der unterschied bei mir sind das ständig andere
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
13:53 Uhr
#12
- Registriert seit
- 18.10.2009
- Beiträge
- 1.160
- Beitragswertungen

Bei mir sind es immer diese
iptables -A INPUT -s 213.186.218.130 -j DROP
iptables -A INPUT -s 46.251.227.2 -j DROP
iptables -A INPUT -s 213.5.70.184 -j DROP
iptables -A INPUT -s 91.214.45.223 -j DROP
iptables -A INPUT -s 79.142.65.199 -j DROP
iptables -A INPUT -s 79.142.65.159 -j DROP
iptables -A INPUT -s 213.186.122.3 -j DROP
ez-skinz.com
Unmögliches wird sofort erledigt, auf Wunsch wird auch gehext. Nur Wunder dauern etwas länger.
Do. 28.04.2011
13:58 Uhr
#13
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

xD einige kommen mir bekannt vor aber bei mir sind es wirklich viele ich vermute mal ddos wird es nicht wirklich sein da müsste das ipautoban schon ip eingetragen haben die wahrscheinlichkeit währe spambot die können zwar keine einträge merh machen aufgrund capach aber es reicht ja x1000 mal von x1000 ips den link aufzurufen und das kostet jedes mal traffic versteht ihr was ich meine?
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
14:10 Uhr
#16
- Registriert seit
- 21.08.2010
- Beiträge
- 333
- Beitragswertungen

Das ist aber unsinniger Spam. Spam ist ja "sinnvoll", wenn zum Beispiel Links enthalten sind, die auch angezeigt werden.
Doch den Spam auf "/index.php?gbook-show-{id}" sieht doch eigentlich niemand.
Was bringt das bitteschön einem Spamer, wenn die Datenbank irgendwo voll ist, aber die Inhalte nicht angezeigt werden?
Das ist doch sinnlos.
.
Do. 28.04.2011
14:29 Uhr
#18
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

naja das speert mir die ganze seite Internal Server Error ^^
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
17:09 Uhr
#19
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

@dastiac ich habe die htaccess so bearbeitet wie du es geschrieben hast denoch blockt es dann die ganze seite gibt es da noch was zu beachten??
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
18:38 Uhr
#20
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

Hier mal ein auszug meiner Beute und es hört nie auf was kann ich noch tuen??
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Do. 28.04.2011
23:33 Uhr
#22
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

bringt leider alles nicht wenn der spambot den link ersteinmal drin hat lässt er den nicht los und so viele ip´s wie das sind ist es fast unmöglich habe nun aus der gbook.php ein blank gemacht und das gbook auf gbooc umgeleitet um komplett weg zu bekommen domain abbestellen -.- naja die domain liegt bei nem hoster der es mit sicherheit nicht so ernst meint habe mein kumpel auch geraten ne neue domain zu nehmen
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Fr. 29.04.2011
01:05 Uhr
#23
- Registriert seit
- 27.12.2005
- Beiträge
- 2.354
- Beitragswertungen

Hm, bei mir hat das mit der .htaccess problemlos funktioniert.
Fr. 29.04.2011
10:51 Uhr
#24
- Registriert seit
- 23.01.2008
- Beiträge
- 395
- Beitragswertungen

bei mir leider nict naja jetzt haben die erstmal eine weisse seite und der traffic ist nun auch von durchsnitt 1gb pro tag auf 200mb schon mal ein fortschritt
Gestern noch zu blöd, den Computer einzuschalten,
heute schon die eigene Homepage
Fr. 29.04.2011
12:30 Uhr
#25
Also ich würd es mit den uesragents machen. Läuft Klasse. Und irgend jemand hier wird dir sicher schnell ne Datei erstellen können. Hab noch irgendwo aufm PC ne SQL die alle Useragents die dort aufgelistet sind mit Typ in einer Tabelle speichert ( gut 2900 Zeilen ). Muss mal gucken ob ich die finde