Hallo zusammen! Heute beschäftigen wir uns mit der Frage: „Python – wie verbindet man einen Proxy?“
Warum ihr einen Proxy braucht, ist euch überlassen. Vielleicht möchtet ihr Daten von einer Website sammeln, die mehrere Verbindungen nicht mag. Oder aus einem anderen Grund. Wie dem auch sei, ihr müsst einen Proxy verbinden. Los geht’s!
Der unten dargestellte Code wird folgendermaßen aussehen:
Verbindung zu einer Website herstellen, die eure aktuelle IP anzeigt.
Die erhaltenen Daten ausgeben, um sicherzustellen, dass alles korrekt funktioniert.
Einen Proxy verbinden und eine Verbindung über diesen herstellen.
Verbindung zu einer Website herstellen, die eure aktuelle IP anzeigt (jetzt mit Proxy :)) und die erhaltenen Daten ausgeben.
Um unsere IP-Adresse zu überprüfen, verwenden wir die Website 2ip.ru (sehr praktisch). Außerdem verwenden wir gefälschte Browser-Header, um nicht unnötig aufzufallen.
import requests # Bibliothek zum Verarbeiten und Erstellen von Anfragen einbinden from bs4 import BeautifulSoup # Bibliothek einbinden, um bequem Daten auf Websites zu durchsuchen headers = ({'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:52.0) Gecko/20100101 Firefox/69.0'}) # Einen gefälschten Browser-Header erstellt ;)
Nun haben wir: die notwendigen Bibliotheken eingebunden und einen gefälschten Browser-Header erstellt. Jetzt initialisieren wir eine Verbindung zur Website, um unseren aktuellen Standort und unsere IP zu erhalten:
get_location_link = 'https://2ip.ru' # Variable mit dem Link zur Website, die unsere IP und unseren Standort anzeigt response = requests.get(url=get_location_link, headers=headers) # Variable mit der Antwort der Website (an die wir auch unseren gefälschten Browser-Header geschickt haben) soup = BeautifulSoup(response.text, 'lxml') # Variable, die den Text der Website-Antwort enthält ip = soup.find('div', class_='ip').text.strip() # Variable mit unserer IP-Adresse (auf 2ip.ru im div-Element mit der Klasse "ip" versteckt) location = soup.find('div', class_='value-country').text.strip() # Variable mit dem Standort (auf 2ip.ru im div-Element mit der Klasse "value-country") print(ip, ':', location) # Unsere IP-Adresse und unseren Standort im Terminal ausgeben
Wir erhalten und geben also unseren aktuellen Standort aus. Jetzt stellen wir eine Verbindung über einen Proxy-Server her und geben die Ergebnisse zum Vergleich aus:
print('Jetzt über Proxy:') # Text im Terminal ausgeben, um anzuzeigen, dass die Verbindung jetzt über Proxy erfolgt proxy_link = {'https': '8.217.12.240:59394'} # Wörterbuch mit Protokoll, Proxy-Adresse und Verbindungsport. Wo man Proxys findet? Es gibt viele Möglichkeiten, aber das später. response = requests.get(url=get_location_link, headers=headers, proxies=proxy_link) # Verbindung zur Website initialisieren, diesmal jedoch mit Proxy-Parametern soup = BeautifulSoup(response.text, 'lxml') # Variable mit dem Text der Website-Antwort ip = soup.find('div', class_='ip').text.strip() # Variable mit unserer IP-Adresse (auf 2ip.ru im div-Element mit der Klasse "ip" versteckt) location = soup.find('div', class_='value-country').text.strip() # Variable mit dem Standort (auf 2ip.ru im div-Element mit der Klasse "value-country") print(ip, ':', location) # Unsere IP-Adresse und unseren Standort im Terminal ausgeben
Wenn alles korrekt gemacht wurde, sollte im Terminal etwa Folgendes erscheinen:
Der vollständige Code sieht so aus:
import requests from bs4 import BeautifulSoup headers = ({'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:52.0) Gecko/20100101 Firefox/69.0'}) get_location_link = 'https://2ip.ru' proxy_link = {'https': '8.217.12.240:59394'} response = requests.get(url=get_location_link, headers=headers) soup = BeautifulSoup(response.text, 'lxml') ip = soup.find('div', class_='ip').text.strip() location = soup.find('div', class_='value-country').text.strip() print(ip, ':', location) print('Jetzt über Proxy:') response = requests.get(url=get_location_link, headers=headers, proxies=proxy_link) soup = BeautifulSoup(response.text, 'lxml') ip = soup.find('div', class_='ip').text.strip() location = soup.find('div', class_='value-country').text.strip() print(ip, ':', location)
Das war alles, was ich über „wie verbindet man einen Proxy“ sagen konnte. 🙂 Vielen Dank für eure Aufmerksamkeit! Wie immer, bei Fragen könnt ihr mir eine E-Mail oder eine Nachricht auf Telegram schreiben.
Suchanfragen:
Proxy-Server-Verbindung für Scraping Python.
Support the Blog!
Running a blog takes a lot of effort, time, and passion. Your donations help improve the content, inspire new ideas, and keep the project going.
If you’ve enjoyed the blog’s materials, any support would mean the world to me. Thank you for being here! ❤️