Python - zdalne pliki

Spisie treści

Pyton pozwala nam na pracę z plikami zdalnymi, może nie brzmi to logicznie, ale pliki zdalne w tym przypadku to nic innego jak zapytania do stron WWW z naszego programu w Pythonie, powodem tego może być odpytanie do Usługi sieciowe REST które pozwalają nam pozyskiwać wartości przez DOSTWAĆ lub bezpośrednio wysyłać zapytania do stron i manipulować ich zawartością.

Aby to osiągnąć, wykorzystamy niektóre z wielu oferowanych przez nią bibliotek Pyton do pracy z sieciami, usuwając w ten sposób przeszkody techniczne i koncentrując się tylko na tym, jak ważne jest to w naszej logice programowania.

urllib i urllib2
Te dwie księgarnie urllib Tak urllib2 Pozwalają nam wykonywać pracę dostępu do plików przez sieć tak, jakby były w naszym lokalnym środowisku, poprzez proste wywołanie funkcji, która może nam służyć do wielu rzeczy, na przykład, że możemy korzystać z sieci i jej zawartości sporządzać raporty w naszym programie z tego, co możemy w nim znaleźć.

Te dwie biblioteki są podobne, ich różnica polega na tym, że urllib2 może być nieco bardziej wyrafinowany, gdzie jeśli po prostu chcemy wykonać zapytanie bez dalszych implikacji, możemy użyć urllib, ale jeśli chcemy przeprowadzić jakiś proces uwierzytelniania lub użyć plików cookie, to urllib2 może to być właściwy wybór dla naszego programu.

Skoro teoretycznie wiemy, czego potrzebujemy i dlaczego tego potrzebujemy, zobaczmy mały przykład kodu, aby było dla nas jasne, co możemy zrobić, w poniższym przykładzie otworzymy sieć z naszego programu, a następnie za pomocą wyrażeń regularnych wydobędziemy link do jego treści, do tego użyjemy urllib:

 >>> z urllib import urlopen >>> webpage = urlopen ('http://www.python.org') >>> import re >>> text = webpage.read() >>> m = re.search ( 'Samouczek', tekst, re.IGNORECASE) >>> m.group (1) 

Idziemy krok po kroku, najpierw z importowanej biblioteki urllib urlopen, tworzymy zmienną o nazwie Strona internetowa czyli ten, który będzie zawierał wynik urlopen Co zrobimy z oficjalną stroną Pyton, z tym już importujemy odnośnie W celu pracy z wyrażeniami regularnymi mówimy, że tekst jest zmienną, która będzie miała zawartość czytanej strony, szukamy za pomocą wyrażenia regularnego i na końcu grupujemy wynik, który powinien wypisać:

http://docs.python.org/

Dzieje się tak dzięki metodzie urlopenTo, co robisz, to to, że pozwala nam to pracować ze stroną internetową tak, jakby była obiektem plikowym, w ten sposób możemy zastosować wiele funkcji, których możemy użyć z tego typu obiektami, nawet jeśli chcemy, możemy pobrać stronę i zrób to z naszego lokalnego w bardzo łatwy sposób przy użyciu metody pobieranie adresów URL następująco:

 URLretrieve („http://www.python.org”, „C: \ python_webpage.html”)
Jedyne, co robimy, to jako drugi parametr przekazujemy ścieżkę w naszym lokalnym środowisku, gdzie plik z kopią strony powinien być bez większych trudności zapisany.

Na tym kończymy ten samouczek, ponieważ widzimy, że wykonywanie bardziej złożonych prac, takich jak używanie stron w naszych programach, jest dość proste dzięki bibliotekom Pyton.

Podobał Ci się i pomógł ten samouczek?Możesz nagrodzić autora, naciskając ten przycisk, aby dać mu pozytywny punkt

Będziesz pomóc w rozwoju serwisu, dzieląc stronę ze swoimi znajomymi

wave wave wave wave wave