it-swarm.asia

كيف يمكنني إيقاف هجوم البوت على موقعي؟

لدي موقع (تم إنشاؤه باستخدام WordPress) يخضع حاليًا لهجوم روبوت (بأفضل ما يمكنني قوله). يتم طلب ملف مرارًا وتكرارًا ، والمرجع هو (في كل مرة تقريبًا) turkyoutube.org/player/player.swf. الملف المطلوب عميق داخل ملفات السمات الخاصة بي ، ويتبعه دائمًا "?v=" وسلسلة طويلة (على سبيل المثال r.php?v=Wby02FlVyms&title=izlesen.tk_Wby02FlVyms&toke).

لقد حاولت إعداد قاعدة htaccess لهذا المرجع ، والذي يبدو أنه يعمل ، إلا أنه يتم الآن تحميل صفحتي 404 مرارًا وتكرارًا ، والتي لا تزال تستخدم الكثير من النطاق الترددي. هل هناك طريقة لإنشاء قاعدة htaccess لا تتطلب استخدام النطاق الترددي من جانبي؟

حاولت أيضًا إنشاء ملف robots.txt ، لكن يبدو أن الهجوم يتجاهل ذلك.

#This is the relevant part of the .htaccess file:
RewriteCond %{HTTP_REFERER} turkyoutube\.org [NC]
RewriteRule .* - [F]
14
Travis Northcutt

ماذا عن القليل مناورة corbomite ؟

RewriteEngine on
RewriteCond %{HTTP_REFERER} ^http(s)?://(www\.)?turkyoutube.org.*$ [NC]
RewriteRule ^(.*)$ http://127.0.0.1/$1 [R=401,L]

لاحظ ، لم يتم اختباره ولكن يجب إعادة توجيه الطلبات منها مرة أخرى إلى نفسها برمز حالة 401 Not Authorized. هذا هو ، إذا تعامل الروبوت حتى مع إعادة التوجيه (غير مرجح جدًا) ، لكنه سيظل يشاهد رمز الحالة. قد يكون رمز الحالة 404 أكثر فعالية. يجب أن يخبر المرء الروبوت بأنه يجب أن يستسلم.

القاعدة التي نشرتها في التعليقات هي أكثر من كافية إذا قمت بتوسيع التعبير بحيث يطابق المضيف أكثر قليلاً. يمكنني استخدام شيء قريب (بقدر القاعدة الفعلية) لمنع وكلاء المستخدم المطابقين libwww-Perl:

RewriteCond %{HTTP_USER_AGENT} libwww-Perl.*
RewriteRule .* - [F,L]
8
Tim Post

بصرف النظر عن حظر IP ، أود أن أتفحص الملفات المطلوبة. إنه أمر شائع إلى حد ما بالنسبة لأنظمة المصادر المفتوحة مثل WordPress و Joomla ليتم استغلالها ، وهذا هو أحد أسباب تحديثها بشكل متكرر. إذا أهملت بعض التحديثات ، فمن المحتمل أن يكون شخص قد اخترق موقعك.

لقد حدث لي هذا السيناريو مرتين ، مرة واحدة في موقع اختبار لم يتم نشره بالكامل (ولكن تم تركه في مكانه) ومرة ​​أخرى على موقع ويب للشركة حيث قام الموظف الذي لديه حق الوصول "بتسلل" phpBB إلى عائلته للتواصل - التحديثات من شأنها أن تمنع القضايا. في كلتا الحالتين ، تم العثور على مشكلة في التحليلات حيث يبدو أنها قد تكون حقيقية في حالتك. أدى هجوم جملة إلى حقن جافا سكريبت التي تسببت في تحميل متصفح المستخدم للبرنامج ، في حين سمح الأخير للمتسلل بتحميل الملفات إلى الخادم التي كانت جزءًا من موقع google "بديل" موزع يؤدي إلى قيام المستخدم بالترجمة في كل مرة. على الرغم من أنها ليست اختراقًا شائعًا بالكامل ، تحقق من جدول مستخدمي قاعدة بياناتك ، فقط في حالة.

بالتأكيد ، لا أقصد التسبب في الإنزعاج ، ولكن لا يضر أبداً أن أقضي وقتًا في البحث في موقعك من حين إلى آخر لمعرفة ما يحدث بالضبط. في بعض الأحيان سوف تفاجأ بما تجده.

2
bpeterson76

إذا كان الهجوم يأتي من نفس رقم IP في كل مرة (أو مجموعة صغيرة من أرقام IP) ، فيجب عليك حظر رقم IP في جدار الحماية الخاص بك. هذا لا ينبغي أن يكلف أي عرض النطاق الترددي أو تحميل على خادم الويب الخاص بك.

إذا كنت تستضيفه على جهاز Linux لديك حق الوصول إلى الجذر هذه المقالة يشرح كيفية القيام بذلك.

1
Kris

يمكنني استخدام DenyHosts [1] على جميع الخوادم الخاصة بي. DenyHosts لا تسمح لجميع عناوين IP التي فشلت في تسجيل الدخول بعد n مرة. يمكنك أيضا إرسال الإخطارات. لذلك لديك نظرة عامة كبيرة من أي IPS/المضيفين جاء تسجيلات الدخول ؛ كما أن لديها وظيفة تحديث الويب وغيرها من الميزات الرائعة. لكنه لا يزال بسيط جدا لتثبيت.

هناك طريقة أخرى تتمثل في عدم السماح لجميع نطاقات/كتل IP (على سبيل المثال) من الصين أو البلدان الأخرى التي ليست مجموعتك المستهدفة. يمكن القيام بذلك باستخدام "قوائم سوداء" عبر الإنترنت أو فقط مع ملف hosts.deny (مثل DenyHosts).

[1] http://denyhosts.sourceforge.net/

0
fwaechter