معرفی شرکت ها


flexes-feed-0.1.0


Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر
Card image cap
تبلیغات ما

مشتریان به طور فزاینده ای آنلاین هستند. تبلیغات می تواند به آنها کمک کند تا کسب و کار شما را پیدا کنند.

مشاهده بیشتر

توضیحات

Library for setting up data processing pipelines from remote data feeds
ویژگی مقدار
سیستم عامل -
نام فایل flexes-feed-0.1.0
نام flexes-feed
نسخه کتابخانه 0.1.0
نگهدارنده []
ایمیل نگهدارنده []
نویسنده James Arnold
ایمیل نویسنده -
آدرس صفحه اصلی -
آدرس اینترنتی https://pypi.org/project/flexes-feed/
مجوز -
# flexes-feed [![Build Status](https://travis-ci.org/lanl-ansi/flexes-feed.svg?branch=master)](https://travis-ci.org/lanl-ansi/flexes-feed) [![codecov](https://codecov.io/gh/lanl-ansi/flexes-feed/branch/master/graph/badge.svg)](https://codecov.io/gh/lanl-ansi/flexes-feed) Generic structure for retrieving and processing regularly updated data from the web ## Scraper Usage To create a new scraper simply create a class that inherits from the `Scraper` class and override the `check()` method. Here is a quick pseudo example: ```python import requests from data_feed.scraper import NewFile, Scraper class MyScraper(Scraper): def check(self): response = requests.get(self.channel) # Parse content from page # If the file has changed return a NewFile object return [NewFile(file_url, self.s3_folder)] def run_scraper(): s3_folder = 's3://bucket/path/to/store/data' channel = 'http://somedata.com' scraper = MyScraper(s3_folder, channel) scraper.run() if __name__ == '__main__': run_scraper() ``` See [examples/noaa_wind_scraper.py](noaa_wind_scraper.py) for a real example. The example also requires that `BeautifulSoup4` and `lxml` are installed. To install, simply run `pip install BeautifulSoup4 lxml`. ## Subscriber Usage To create a new subscriber simply create a class that inherits from the `Subscriber` class and override the `process()` method. Here is a quick pseduo example: ```python from data_feed.subscriber import Subscriber class MySubscriber(Subscriber): def process(self, s3_uri): # Process file(s) in s3_uri def subscribe(): channel = 'http://somedata.com' sub = MySubscriber(channel) sub.subscribe() if __name__ == '__main__': subscribe() ``` See [examples/noaa_wind_subscriber.py](noaa_wind_subscriber.py) for a real example using the lanlytics API.


نحوه نصب


نصب پکیج whl flexes-feed-0.1.0:

    pip install flexes-feed-0.1.0.whl


نصب پکیج tar.gz flexes-feed-0.1.0:

    pip install flexes-feed-0.1.0.tar.gz