كيف يمكنني تنزيل جميع الصفحات من موقع على شبكة الإنترنت؟
أي منصة على ما يرام.
HTTRACK يعمل مثل بطل لنسخ محتويات الموقع بأكمله. يمكن لهذه الأداة حتى الحصول على القطع اللازمة لإنشاء موقع على شبكة الإنترنت مع محتوى التعليمات البرمجية النشط العمل دون اتصال. أنا مندهش من الأشياء التي يمكن أن تتكرر في وضع عدم الاتصال.
هذا البرنامج سوف يفعل كل ما تحتاجه منه.
صيد سعيد!
Wget هي أداة سطر أوامر كلاسيكية لهذا النوع من المهام. يأتي مع معظم أنظمة يونيكس/لينكس ، ويمكنك الحصول عليه لنظام التشغيل Windows أيضا. على جهاز Mac ، Homebrew هي أسهل طريقة لتثبيته (brew install wget
).
كنت تفعل شيئا مثل:
wget -r --no-parent http://site.com/songs/
لمزيد من التفاصيل ، راجع Wget Manual و أمثلة أو على سبيل المثال التالية:
استخدام wget:
wget -m -p -E -k www.example.com
وأوضح الخيارات:
-m, --mirror Turns on recursion and time-stamping, sets infinite
recursion depth, and keeps FTP directory listings.
-p, --page-requisites Get all images, etc. needed to display HTML page.
-E, --adjust-extension Save HTML/CSS files with .html/.css extensions.
-k, --convert-links Make links in downloaded HTML point to local files.
Internet Download Manager لديه أداة مساعدة لـ Grabber مع الكثير من الخيارات - والتي تتيح لك تنزيل أي موقع تريده بالكامل ، بالطريقة التي تريدها.
يمكنك تعيين الحد الأقصى لحجم الصفحات/الملفات لتنزيلها
يمكنك ضبط عدد المواقع الفرعية للزيارة
يمكنك تغيير الطريقة التي تتصرف بها البرامج النصية/النوافذ المنبثقة/التكرارات
يمكنك تحديد مجال ، فقط تحت هذا المجال سيتم تنزيل جميع الصفحات/الملفات التي تفي بالإعدادات المطلوبة
يمكن تحويل الروابط إلى روابط دون اتصال بالإنترنت للتصفح
لديك قوالب تتيح لك اختيار الإعدادات المذكورة أعلاه لك
البرنامج غير مجاني - معرفة ما إذا كان يناسب احتياجاتك ، استخدم إصدار التقييم.
يجب إلقاء نظرة على سجل القصاصات ، امتداد لفايرفوكس. لديها وضع التقاط في العمق .
itsucks- هذا هو اسم البرنامج!
سأتناول التخزين المؤقت عبر الإنترنت الذي تستخدمه المتصفحات ...
عادةً ما تستخدم معظم المتصفحات ذاكرة تخزين مؤقت للتصفح للاحتفاظ بالملفات التي تقوم بتنزيلها من موقع ويب لفترة قصيرة حتى لا تضطر إلى تنزيل صور ثابتة ومحتوى مرارًا وتكرارًا. هذا يمكن أن يسرع الأشياء قليلا جدا في ظل بعض الظروف. بشكل عام ، تقتصر معظم ذاكرات التخزين المؤقت للمتصفح على حجم ثابت ، وعندما يصل إلى هذا الحد ، فإنه يحذف الملفات الأقدم في ذاكرة التخزين المؤقت.
يميل مزودو خدمة الإنترنت إلى الحصول على خوادم التخزين المؤقت التي تحتفظ بنسخ من المواقع التي يتم الوصول إليها عادة مثل ESPN و CNN. هذا يوفر لهم عناء ضرب هذه المواقع في كل مرة يذهب شخص على شبكتهم هناك. يمكن أن يكون هذا بمثابة توفير كبير في كمية الطلبات المكررة للمواقع الخارجية لمزود خدمة الإنترنت.
أنا أحب غير متصل مستكشف .
إنه برنامج تجريبي ، لكنه جيد جدًا وسهل الاستخدام.
لم أقم بذلك منذ سنوات عديدة ، لكن لا يزال هناك عدد قليل من المرافق. قد ترغب في تجربة Web Snake . أعتقد أنني استخدمتها منذ سنوات. تذكرت الاسم على الفور عندما قرأت سؤالك.
وأنا أتفق مع Stecy. من فضلك لا تدق موقعهم. سيئ جدا.
WebZip هو منتج جيد كذلك.
لنظامي التشغيل Linux و OS X: كتبت grab-site لأرشفة مواقع الويب بالكامل إلى WARC files. يمكن أن تكون ملفات WARC هذه يتم تصفحها أو استخراجها. يتيح لك grab-site التحكم في عناوين URL المراد تخطيها باستخدام التعبيرات العادية ، ويمكن تغييرها عند تشغيل الزحف. كما يأتي أيضًا مع مجموعة من الإعدادات الافتراضية لتجاهل عناوين URL غير الهامة.
هناك لوحة معلومات على الويب لمراقبة عمليات الزحف ، بالإضافة إلى خيارات إضافية لتخطي محتوى الفيديو أو الردود على حجم معين.
DownThemAll هي وظيفة إضافية في Firefox ستقوم بتنزيل كل المحتوى (ملفات الصوت أو الفيديو ، على سبيل المثال) لصفحة ويب معينة بنقرة واحدة. لا يؤدي هذا إلى تنزيل الموقع بأكمله ، ولكن هذا قد يكون نوعًا ما يبحث عنه السؤال.
Teleport Pro هو حل مجاني آخر يقوم بنسخ أي وجميع الملفات من أي هدف مستهدف (يحتوي أيضًا على إصدار مدفوع يتيح لك سحب المزيد من صفحات المحتوى).
جرب متصفح باك ستريت .
إنه متصفح مجاني وقوي بدون اتصال بالإنترنت. برنامج تحميل وعرض موقع فائق السرعة ومتعدد الخيوط. من خلال تقديم طلبات متعددة للخوادم المتزامنة ، يمكن لـ BackStreet Browser تنزيل موقع الويب بالكامل أو جزء منه بسرعة بما في ذلك HTML والرسومات و Java Appts والملفات الصوتية والملفات الأخرى التي يمكن للمستخدم تحديدها ، ويحفظ جميع الملفات في محرك الأقراص الثابتة ، إما بتنسيقها الأصلي ، أو كملف مضغوط Zip وعرض دون اتصال.
الموقرFreeDownloadManager.orgلديه هذه الميزة أيضًا.
مدير التحميل المجاني لديه في شكلين في شكلين: Site Explorer و Site Spider :
مستكشف الموقع
يتيح لك Site Explorer عرض بنية المجلدات لموقع ويب وتنزيل الملفات أو المجلدات الضرورية بسهولة.
HTML Spider
يمكنك تنزيل صفحات ويب كاملة أو حتى مواقع ويب كاملة باستخدام HTML Spider. يمكن ضبط الأداة لتنزيل الملفات ذات الملحقات المحددة فقط.
أجد أن Site Explorer مفيد لمعرفة المجلدات التي يجب تضمينها/استبعادها قبل محاولة تنزيل الموقع بأكمله - خاصةً عندما يكون هناك منتدى كامل مختبئ في الموقع لا تريد تنزيله على سبيل المثال.
بينما تم ذكر wget بالفعل هذا المورد وسطر الأوامر كان سلسًا للغاية اعتقدت أنه يستحق الذكر: wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/