معرفی شرکت ها


django-web-crawler-0.9


Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر

توضیحات

A Django app to gather the links of a website.
ویژگی مقدار
سیستم عامل -
نام فایل django-web-crawler-0.9
نام django-web-crawler
نسخه کتابخانه 0.9
نگهدارنده ['Atuh Samuel']
ایمیل نگهدارنده ['atuhsamuel96@gmail.com']
نویسنده Atuh Samuel
ایمیل نویسنده atuhsamuel96@gmail.com
آدرس صفحه اصلی https://www.majestylink.com/
آدرس اینترنتی https://pypi.org/project/django-web-crawler/
مجوز MIT
================== Django Web Crawler ================== Crawler is a Django app to help connect to a website and gather as much links as you want. Quick start ----------- 1. Add "gatherlinks" to your INSTALLED_APPS setting like this:: INSTALLED_APPS = [ ... 'gatherlinks', ] 2. Import the "main" module like this:: from gatherlinks.crawler import main 3. Initialize the StartPoint class like this:: crawler = main.StartPoint(https://example.com, max_crawl=50, number_of_threads=10) 4. The StartPoint class can be initialized with three arguments. a. homepage (a positional argument of the website to gather it's link.) b. max_crawl (maximum number of links to gather from the website. Default is 50) c. number_of_threads (Number of threads to be doing the work simultaneously. Default is 10) 5. After initialising the class, you can then call the "start" method like this:: crawler.start() 6. When the crawler must have finished gathering the link, you can access the gathered links like this:: crawler.result That result attribute is a "set" datatype that holds all the links that the crawler could gather. You can then loop through the "crawler.result" and do whatever you want with it (write to file or save to database).


زبان مورد نیاز

مقدار نام
>=3.8 Python


نحوه نصب


نصب پکیج whl django-web-crawler-0.9:

    pip install django-web-crawler-0.9.whl


نصب پکیج tar.gz django-web-crawler-0.9:

    pip install django-web-crawler-0.9.tar.gz