Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

Scraping von Google-Suchergebnissen mit Python

Erfahren Sie, wie Sie mit Python und den Bibliotheken Selenium und BeautifulSoup Googles Suchergebnisse einlesen und analysieren können, um wertvolle Daten zu extrahieren.
© (Quelle: EMGenie)

Google als eine der grössten Suchmaschinen enthält eine enorme Menge an wertvollen Daten, die für Unternehmen und Forscher von Interesse sind. Um jedoch effizient Google-Suchergebnisse zu scrapen, muss das Programm dafür robust, skalierbar und in der Lage sein, dynamische Veränderungen in Googles Struktur zu bewältigen.

Ob Sie ein eigenes LLM-Modell aufbauen oder Markteinblicke gewinnen möchten, ein Google-Scraper ist dafür unerlässlich. In einem Artikel zeigt Autor Manthan Koolwal lernen Sie, wie man einen Google-Suchergebnis-Scraper mit Python und der BeautifulSoup-Bibliothek erstellt.

Das Web-Scraping mit Python gehört 2025 zu den gefragtesten Fähigkeiten, da KI im Aufschwung ist. Um mit dem Scraping zu beginnen, müssen Sie sicherstellen, dass Python auf Ihrem Computer installiert ist und einige erforderliche Bibliotheken wie Selenium, BeautifulSoup und Pandas installiert sind.

Selenium wird verwendet, um den Google Chrome-Browser zu automatisieren, während BeautifulSoup dazu dient, wichtige Daten aus den Roh-HTML-Daten zu extrahieren. Da JavaScript-Rendering erforderlich ist, kommt nicht ein einfacher Download einer Seite zum Zug, sondern Selenium. Das schafft die nötige Headless-Browserumgebung, die wie ein echter Benutzer funktioniert und die Seite aufruft. Danach können Sie die HTML-Daten mit BeautifulSoup parsen und die benötigten Informationen wie Titel, Links und Beschreibungen extrahieren.

Da Google eine Vielzahl von Anti-Scraping-Massnahmen einsetzt, kann das einfache Scraping mit einem Standardansatz nicht skalierbar sein. Sie benötigen also fortgeschrittene Tools oder API-Dienste wie zum Beispiel Scrapingdog, die Proxy- und Header-Rotation übernehmen, um sicherzustellen, dass Sie nicht blockiert werden.

Das folgende Skript lädt die Seite in Selenium:

from selenium import webdriverfrom selenium.webdriver.chrome.service import Servicefrom selenium.webdriver.common.by import Byimport timefrom bs4 import BeautifulSoup# Set path to ChromeDriver (Replace this with the correct path)CHROMEDRIVER_PATH = "D:/chromedriver.exe"  # Change this to match your file location# Initialize WebDriver with Serviceservice = Service(CHROMEDRIVER_PATH)options = webdriver.ChromeOptions()options.add_argument("--window-size=1920,1080")  # Set window sizeoptions.add_argument("--disable-blink-features=AutomationControlled")driver = webdriver.Chrome(service=service, options=options)# Open Google Search URLsearch_url = "https://www.google.com/search?q=lead+generation+tools&oq=lead+generation+tools"driver.get(search_url)# Wait for the page to loadtime.sleep(2)page_html = driver.page_sourceprint(page_html) 

Und die folgenden Zeilen Code holen Titel, Link und Beschreibung aus der Datei:

page_html = driver.page_sourceobj={}l=[]soup = BeautifulSoup(page_html,'html.parser')allData = soup.find("div",{"class":"dURPMd"}).find_all("div",{"class":"Ww4FFb"})print(len(allData))for i in range(0,len(allData)):    try:        obj["title"]=allData[i].find("h3").text    except:        obj["title"]=None    try:        obj["link"]=allData[i].find("a").get('href')    except:        obj["link"]=None    try:        obj["description"]=allData[i].find("div",{"class":"VwiC3b"}).text    except:        obj["description"]=None    l.append(obj)    obj={}print(l) 

Kommentare

Softwareentwicklung
Anzeige
Anzeige

Neueste Beiträge

Echtzeittext - Bundesrat schafft Grundlage für neue Notruffunktion
Der Bundesrat hat mehrere Verordnungen angepasst, um ein sicheres Notrufsystem zu fördern. In Zukunft können Menschen in Notlage die Notdienste von Polizei, Feuerwehr und Sanität per Echtzeittext auf den Smartphones auch schriftlich erreichen. 
3 Minuten
Stromverbrauch und Effizienzpotenziale von Rechenzentren in der Schweiz
2024 betrug der Stromverbrauch der Rechenzentren in der Schweiz 2,1 TWh, was ungefähr 3,6 Prozent des Gesamtverbrauchs entspricht. Bis 2030 wird ein Anstieg des Stromverbrauchs der inländischen Rechenzentren auf 2,5 bis 3,2 TWh erwartet. 
3 Minuten
Honor: Neue Oberklasse mit zwei Modellen der 600-Serie
Die neuen Honor-Smartphones 600 und 600 Pro sollen in der Oberklasse mit schnellen Snapdragon-Prozessoren und umfangreichen KI-Funktionen der Kameras punkten.
3 Minuten
6. Mai 2026

Das könnte Sie auch interessieren

Publireportage
Ist öffentliches WLAN sicher? Das solltest du wissen
Öffentliche WLAN-Netze sind überall: in Flughäfen, Hotels, Bibliotheken, Einkaufszentren und vielen anderen Orten. Sich schnell und kostenlos mit dem Internet zu verbinden, war noch nie so einfach. Doch so praktisch diese Netzwerke auch sind – für Cyberkriminelle sind sie ein echtes Einfallstor.
3 Minuten
Vergabe der UKW-Konzessionen für Radios 2027 bis 2034
Das Bundesamt für Kommunikation BAKOM hat das Verfahren für die Vergabe der UKW-Funkkonzessionen zur Verbreitung von Radioprogrammen ab 2027 festgelegt. Die SRG und Privatradios mit Leistungsauftrag können auf Gesuch hin ihre bisherigen Frequenzen weiter nutzen. SRG vor UKW-Rückkehr?
3 Minuten
21. Apr 2026
Lederarmbänder werden zu Stromspeichern
Forscher der Jilin-Universität machen aus ledernen Jacken, Trachtenhosen und Uhrarmbändern Batterien. Dabei bleibt ihre ursprüngliche Funktion erhalten.
3 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Kommentare