"यदि कोई कर्मचारी अपना काम अच्छी तरह से करना चाहता है, तो उसे पहले अपने औजारों को तेज करना होगा।" - कन्फ्यूशियस, "द एनालेक्ट्स ऑफ कन्फ्यूशियस। लू लिंगगोंग"
मुखपृष्ठ > प्रोग्रामिंग > एचआर ऑटोमेशन के लिए एपीआई और वेब स्क्रैपिंग के साथ काम करना पाठ

एचआर ऑटोमेशन के लिए एपीआई और वेब स्क्रैपिंग के साथ काम करना पाठ

2024-11-05 को प्रकाशित
ब्राउज़ करें:286

Lesson  Working with APIs and Web Scraping for HR Automation

हमारी पायथन से 0 से हीरो श्रृंखला में आपका स्वागत है! अब तक, हमने सीखा है कि डेटा में हेरफेर कैसे करें और पेरोल और एचआर सिस्टम से संबंधित कार्यों के लिए शक्तिशाली बाहरी पुस्तकालयों का उपयोग कैसे करें। लेकिन क्या होगा यदि आपको वास्तविक समय डेटा लाने या बाहरी सेवाओं के साथ बातचीत करने की आवश्यकता है? यहीं पर एपीआई और वेब स्क्रैपिंग चलन में आते हैं।

इस पाठ में, हम कवर करेंगे:

  1. एपीआई क्या हैं और वे उपयोगी क्यों हैं।
  2. पायथन की अनुरोध लाइब्रेरी का उपयोग करके REST API के साथ कैसे इंटरैक्ट करें।
  3. वेबसाइटों से डेटा निकालने के लिए वेब स्क्रैपिंग तकनीक कैसे लागू करें।
  4. व्यावहारिक उदाहरण, जैसे पेरोल के लिए वास्तविक समय कर दरें प्राप्त करना या किसी वेबसाइट से कर्मचारी लाभ डेटा को स्क्रैप करना।

इस पाठ के अंत तक, आप बाहरी डेटा पुनर्प्राप्ति को स्वचालित करने में सक्षम होंगे, जिससे आपका एचआर सिस्टम अधिक गतिशील और डेटा-संचालित हो जाएगा।


1. एपीआई क्या हैं?

एक एपीआई (एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस) नियमों का एक सेट है जो विभिन्न सॉफ़्टवेयर एप्लिकेशन को एक-दूसरे के साथ संचार करने की अनुमति देता है। सरल शब्दों में, यह आपको सीधे आपके कोड से किसी अन्य सेवा या डेटाबेस के साथ इंटरैक्ट करने की सुविधा देता है।

उदाहरण के लिए:

  • आप पेरोल गणना के लिए वास्तविक समय कर दरें प्राप्त करने के लिए एक एपीआई का उपयोग कर सकते हैं।
  • आप कर्मचारी डेटा को सीधे अपने सिस्टम में खींचने के लिए एक एचआर सॉफ्टवेयर एपीआई के साथ एकीकृत हो सकते हैं।
  • या आप यह जानने के लिए मौसम एपीआई का उपयोग कर सकते हैं कि चरम मौसम की स्थिति के आधार पर कर्मचारियों को विशेष लाभ कब प्रदान किया जाए।

अधिकांश एपीआई REST (प्रतिनिधि राज्य स्थानांतरण) नामक एक मानक का उपयोग करते हैं, जो आपको डेटा तक पहुंचने या अपडेट करने के लिए HTTP अनुरोध (जैसे GET या POST) भेजने की अनुमति देता है।


2. एपीआई के साथ इंटरैक्ट करने के लिए अनुरोध लाइब्रेरी का उपयोग करना

पायथन की अनुरोध लाइब्रेरी एपीआई के साथ काम करना आसान बनाती है। आप इसे चलाकर इंस्टॉल कर सकते हैं:

pip install requests

एक बुनियादी एपीआई अनुरोध बनाना

आइए एक सरल उदाहरण से शुरू करें कि GET अनुरोध का उपयोग करके एपीआई से डेटा कैसे प्राप्त किया जाए।

import requests

# Example API to get public data
url = "https://jsonplaceholder.typicode.com/users"
response = requests.get(url)

# Check if the request was successful (status code 200)
if response.status_code == 200:
    data = response.json()  # Parse the response as JSON
    print(data)
else:
    print(f"Failed to retrieve data. Status code: {response.status_code}")

इस उदाहरण में:

  • हम एपीआई से डेटा लाने के लिए request.get() फ़ंक्शन का उपयोग करते हैं।
  • यदि अनुरोध सफल होता है, तो डेटा को JSON के रूप में पार्स किया जाता है, और हम इसे संसाधित कर सकते हैं।

एचआर एप्लिकेशन उदाहरण: रीयल-टाइम टैक्स डेटा प्राप्त करना

मान लें कि आप पेरोल उद्देश्यों के लिए वास्तविक समय कर दरें प्राप्त करना चाहते हैं। कई देश कर दरों के लिए सार्वजनिक एपीआई प्रदान करते हैं।

इस उदाहरण के लिए, हम टैक्स एपीआई से डेटा लाने का अनुकरण करेंगे। वास्तविक एपीआई का उपयोग करते समय तर्क समान होगा।

import requests

# Simulated API for tax rates
api_url = "https://api.example.com/tax-rates"
response = requests.get(api_url)

if response.status_code == 200:
    tax_data = response.json()
    federal_tax = tax_data['federal_tax']
    state_tax = tax_data['state_tax']

    print(f"Federal Tax Rate: {federal_tax}%")
    print(f"State Tax Rate: {state_tax}%")

    # Use the tax rates to calculate total tax for an employee's salary
    salary = 5000
    total_tax = salary * (federal_tax   state_tax) / 100
    print(f"Total tax for a salary of ${salary}: ${total_tax:.2f}")
else:
    print(f"Failed to retrieve tax rates. Status code: {response.status_code}")

इस स्क्रिप्ट को वास्तविक कर दर एपीआई के साथ काम करने के लिए अनुकूलित किया जा सकता है, जिससे आपको अपने पेरोल सिस्टम को नवीनतम कर दरों के साथ अद्यतन रखने में मदद मिलेगी।


3. डेटा इकट्ठा करने के लिए वेब स्क्रैपिंग

हालाँकि डेटा प्राप्त करने के लिए एपीआई पसंदीदा तरीका है, लेकिन सभी वेबसाइटें उन्हें प्रदान नहीं करती हैं। उन मामलों में, वेब स्क्रैपिंग का उपयोग किसी वेबपेज से डेटा निकालने के लिए किया जा सकता है।

पायथन की BeautifulSoup लाइब्रेरी, अनुरोधों के साथ, वेब स्क्रैपिंग को आसान बनाती है। आप इसे चलाकर इंस्टॉल कर सकते हैं:

pip install beautifulsoup4

उदाहरण: किसी वेबसाइट से कर्मचारी लाभ डेटा को स्क्रैप करना

कल्पना करें कि आप किसी कंपनी की एचआर वेबसाइट से कर्मचारी लाभ के बारे में डेटा निकालना चाहते हैं। यहाँ एक बुनियादी उदाहरण है:

import requests
from bs4 import BeautifulSoup

# URL of the webpage you want to scrape
url = "https://example.com/employee-benefits"
response = requests.get(url)

# Parse the page content with BeautifulSoup
soup = BeautifulSoup(response.content, 'html.parser')

# Find and extract the data you need (e.g., benefits list)
benefits = soup.find_all("div", class_="benefit-item")

# Loop through and print out the benefits
for benefit in benefits:
    title = benefit.find("h3").get_text()
    description = benefit.find("p").get_text()
    print(f"Benefit: {title}")
    print(f"Description: {description}\n")

इस उदाहरण में:

  • हम request.get() का उपयोग करके एक वेबपेज की सामग्री का अनुरोध करते हैं।
  • ब्यूटीफुलसूप ऑब्जेक्ट HTML सामग्री को पार्स करता है।
  • फिर हम find_all() का उपयोग करके उन विशिष्ट तत्वों को निकालते हैं जिनमें हम रुचि रखते हैं (उदाहरण के लिए, लाभ शीर्षक और विवरण)।

यह तकनीक वेब से लाभ, नौकरी पोस्टिंग, या वेतन बेंचमार्क जैसे एचआर-संबंधित डेटा एकत्र करने के लिए उपयोगी है।


4. एचआर अनुप्रयोगों में एपीआई और वेब स्क्रैपिंग का संयोजन

आइए सब कुछ एक साथ रखें और एक मिनी-एप्लिकेशन बनाएं जो वास्तविक दुनिया के एचआर परिदृश्य के लिए एपीआई उपयोग और वेब स्क्रैपिंग को जोड़ती है: एक कर्मचारी की कुल लागत की गणना

कुंआ:

  • वास्तविक समय कर दरें प्राप्त करने के लिए एपीआई का उपयोग करें।
  • अतिरिक्त कर्मचारी लाभ लागतों के लिए एक वेबपेज स्क्रैप करें।

उदाहरण: कुल कर्मचारी लागत कैलकुलेटर

import requests
from bs4 import BeautifulSoup

# Step 1: Get tax rates from API
def get_tax_rates():
    api_url = "https://api.example.com/tax-rates"
    response = requests.get(api_url)

    if response.status_code == 200:
        tax_data = response.json()
        federal_tax = tax_data['federal_tax']
        state_tax = tax_data['state_tax']
        return federal_tax, state_tax
    else:
        print("Error fetching tax rates.")
        return None, None

# Step 2: Scrape employee benefit costs from a website
def get_benefit_costs():
    url = "https://example.com/employee-benefits"
    response = requests.get(url)

    if response.status_code == 200:
        soup = BeautifulSoup(response.content, 'html.parser')
        # Let's assume the page lists the monthly benefit cost
        benefit_costs = soup.find("div", class_="benefit-total").get_text()
        return float(benefit_costs.strip("$"))
    else:
        print("Error fetching benefit costs.")
        return 0.0

# Step 3: Calculate total employee cost
def calculate_total_employee_cost(salary):
    federal_tax, state_tax = get_tax_rates()
    benefits_cost = get_benefit_costs()

    if federal_tax is not None and state_tax is not None:
        # Total tax deduction
        total_tax = salary * (federal_tax   state_tax) / 100

        # Total cost = salary   benefits   tax
        total_cost = salary   benefits_cost   total_tax
        return total_cost
    else:
        return None

# Example usage
employee_salary = 5000
total_cost = calculate_total_employee_cost(employee_salary)

if total_cost:
    print(f"Total cost for the employee: ${total_cost:.2f}")
else:
    print("Could not calculate employee cost.")

यह काम किस प्रकार करता है:

  1. गेट_टैक्स_रेट्स() फ़ंक्शन एक एपीआई से कर दरें पुनर्प्राप्त करता है।
  2. get_benefit_costs() फ़ंक्शन कर्मचारी लाभ लागत के लिए एक वेबपेज को स्क्रैप करता है।
  3. calcult_total_employee_cost() फ़ंक्शन वेतन, करों और लाभों को मिलाकर कुल लागत की गणना करता है।

यह एक सरल उदाहरण है लेकिन यह दर्शाता है कि आप अधिक गतिशील और उपयोगी एचआर एप्लिकेशन बनाने के लिए विभिन्न स्रोतों (एपीआई और वेब स्क्रैपिंग) से डेटा को कैसे जोड़ सकते हैं।


वेब स्क्रैपिंग के लिए सर्वोत्तम अभ्यास

हालांकि वेब स्क्रैपिंग शक्तिशाली है, लेकिन कुछ महत्वपूर्ण सर्वोत्तम प्रथाओं का पालन किया जाना चाहिए:

  1. वेबसाइट के robots.txt का सम्मान करें: कुछ वेबसाइटें स्क्रैपिंग की अनुमति नहीं देती हैं, और आपको स्क्रैपिंग से पहले उनकी robots.txt फ़ाइल की जांच करनी चाहिए।
  2. अनुरोधों के बीच उचित अंतराल का उपयोग करें: time.sleep() फ़ंक्शन का उपयोग करके अनुरोधों के बीच देरी जोड़कर सर्वर को ओवरलोड करने से बचें।
  3. संवेदनशील या कॉपीराइट डेटा को स्क्रैप करने से बचें: डेटा को स्क्रैप करते समय हमेशा सुनिश्चित करें कि आप किसी कानूनी या नैतिक नियमों का उल्लंघन नहीं कर रहे हैं।

निष्कर्ष

इस पाठ में, हमने पता लगाया कि एपीआई का उपयोग करके बाहरी सेवाओं के साथ कैसे इंटरैक्ट किया जाए और वेब स्क्रैपिंग के माध्यम से वेबसाइटों से डेटा कैसे निकाला जाए। ये तकनीकें आपके पायथन अनुप्रयोगों में बाहरी डेटा को एकीकृत करने की अनंत संभावनाएं खोलती हैं, खासकर एचआर संदर्भ में।

विज्ञप्ति वक्तव्य इस लेख को पुन: प्रस्तुत किया गया है: https://dev.to/dazevedo/lesson-7-working-with-apis-and-web-scraping-for-hr- automation-lmj?1 यदि कोई उल्लंघन है, तो कृपया इसे हटाने के लिए [email protected] पर संपर्क करें।
नवीनतम ट्यूटोरियल अधिक>

चीनी भाषा का अध्ययन करें

अस्वीकरण: उपलब्ध कराए गए सभी संसाधन आंशिक रूप से इंटरनेट से हैं। यदि आपके कॉपीराइट या अन्य अधिकारों और हितों का कोई उल्लंघन होता है, तो कृपया विस्तृत कारण बताएं और कॉपीराइट या अधिकारों और हितों का प्रमाण प्रदान करें और फिर इसे ईमेल पर भेजें: [email protected] हम इसे आपके लिए यथाशीघ्र संभालेंगे।

Copyright© 2022 湘ICP备2022001581号-3