- Startseite
- Remote Jobs
- Web Scraping Specialist (Freelance)
Diese Gelegenheit richtet sich nur an Kandidaten, die derzeit im angegebenen Land wohnhaft sind. Ihr Standort kann die Eignung und die Sätze beeinflussen. Bitte reichen Sie Ihren Lebenslauf auf Englisch ein und geben Sie Ihr Englischniveau an. Mindrift sucht hochqualifizierte Vibecode-Spezialisten für das Tendem-Projekt (https://tendem.ai/), um spezialisierte Data-Scraping-Workflows innerhalb unseres hybriden KI + menschlichen Systems voranzutreiben.
In dieser Rolle, als AI Pilot – so bezeichnen wir diese Rolle bei Mindrift – arbeiten Sie mit Tendem Agents zusammen, die repetitive Aufgaben erledigen, während Sie kritisches Denken, Fachwissen und Qualitätskontrolle einbringen, um genaue und umsetzbare Ergebnisse zu liefern.
Diese Teilzeit-Remote-Möglichkeit ist ideal für technische Fachkräfte mit praktischer Erfahrung im Web-Scraping, in der Datenextraktion und -verarbeitung.
Was wir tun
Die Mindrift-Plattform verbindet Spezialisten mit KI-Projekten von großen Tech-Innovatoren. Unsere Mission ist es, das Potenzial von Generative AI zu erschließen, indem wir auf reale Expertise aus der ganzen Welt zurückgreifen.
Über die Rolle
Dies ist eine freiberufliche Tätigkeit für ein Tendem-Projekt. Als Vibe Code-Spezialist übernehmen Sie Data-Scraping-Aufgaben, die technische Präzision für Web-Extraktion und -Verarbeitung erfordern, und nutzen dabei verschiedene Tools wie unser bereitgestelltes Apify und OpenRouter sowie Ihre eigenen einfallsreichen Ansätze.
Hauptverantwortlichkeiten
- Umfassende Datenextraktions-Workflows über komplexe Websites hinweg verwalten, um vollständige Abdeckung, Genauigkeit und zuverlässige Lieferung strukturierter Datensätze zu gewährleisten.
- Interne Tools (Apify, OpenRouter) neben benutzerdefinierten Workflows nutzen, um Datenerfassung, Validierung und Aufgabenausführung zu beschleunigen und gleichzeitig definierte Anforderungen zu erfüllen.
- Zuverlässige Extraktion aus dynamischen und interaktiven Webquellen sicherstellen und Ansätze nach Bedarf anpassen, um JavaScript-gerenderte Inhalte und sich änderndes Website-Verhalten zu bewältigen.
- Datenqualitätsstandards durch Validierungsprüfungen, Konsistenzkontrollen über mehrere Quellen hinweg, Einhaltung von Formatierungsanforderungen und systematische Überprüfung vor der Lieferung durchsetzen.
- Scraping-Operationen für große Datensätze durch effizientes Batching oder Parallelisierung skalieren, Fehler überwachen und die Stabilität gegenüber geringfügigen Änderungen der Website-Struktur aufrechterhalten.
Vergütung
In diesem Projekt können Mitwirkende bis zu 32 US-Dollar pro Stunde verdienen, abhängig von ihrem Niveau und ihrer Beitragsgeschwindigkeit.
Die Vergütung variiert je nach Projekt, Umfang, Komplexität und erforderlicher Expertise. Bitte beachten Sie, dass andere Projekte auf der Plattform je nach ihren Anforderungen unterschiedliche Verdienstmöglichkeiten bieten können.
Erste Schritte
Bewerben Sie sich einfach auf diese Stelle, qualifizieren Sie sich und erhalten Sie die Möglichkeit, an Projekten mitzuwirken, die Ihren technischen Fähigkeiten entsprechen, und das zu Ihrer eigenen Zeitplanung. Von Coding und Automatisierung bis hin zur Feinabstimmung von KI-Ausgaben spielen Sie eine Schlüsselrolle bei der Weiterentwicklung von KI-Fähigkeiten und realen Anwendungen.
Anforderungen
- Mindestens 1 Jahr relevante Erfahrung in Datenanalyse, KI-Automatisierung, Data Engineering oder Softwareentwicklung ist wünschenswert.
- Bachelor- oder Master-Abschluss in Ingenieurwesen, Angewandter Mathematik, Informatik oder verwandten technischen Bereichen ist von Vorteil.
- Python Web Scraping: Erstellen Sie zuverlässige Scraping-Skripte mit BeautifulSoup, Selenium (oder Äquivalenten) für mehrstufige Websites, dynamische JS-Inhalte (Infinite Scroll, AJAX) und API-Endpunkte über bereitgestellte Proxys.
- Expertise in der Datenextraktion: Navigieren Sie durch komplexe hierarchische Strukturen (Regionen → Unternehmen → Details), verarbeiten Sie archivierte Seiten und verschiedene HTML-Formate.
- Datenverarbeitung: Bereinigen, normalisieren und validieren Sie gescrapte Daten; liefern Sie qualitativ hochwertige Datensätze in gut strukturierten Formaten (CSV, JSON, Google Sheets) mit klarer, konsistenter Darstellung.
- Praktische Erfahrung mit LLMs und KI-Frameworks zur Verbesserung von Automatisierung und Problemlösung.
- Hohe Liebe zum Detail und Engagement für Datenrichtigkeit.
- Selbstgesteuerte Arbeitsmoral mit der Fähigkeit zur unabhängigen Fehlerbehebung.
- Englischkenntnisse: Fortgeschritten (B2) oder höher (erforderlich).
Vorteile
Warum diese freiberufliche Tätigkeit eine gute Gelegenheit für Sie sein könnte?
- Arbeiten Sie vollständig remote nach Ihrem eigenen Zeitplan mit nur einem Laptop und einer stabilen Internetverbindung.
- Sammeln Sie praktische Erfahrungen in einer einzigartigen hybriden Umgebung, in der menschliche Expertise und KI-Agenten nahtlos zusammenarbeiten – eine herausragende Fähigkeit in einem sich schnell entwickelnden Bereich.
- Nehmen Sie an leistungsbasierten Bonusprogrammen teil, die qualitativ hochwertige Arbeit und konsistente Lieferung belohnen.
