Apache Sqoop Tutorial - HDFS और RDBMS के बीच आयात / निर्यात डेटा



Apache Sqoop Tutorial: Sqoop Hadoop और रिलेशनल डेटाबेस के बीच डेटा स्थानांतरित करने के लिए एक उपकरण है। यह ब्लॉग MySQL से Soup आयात और निर्यात को कवर करता है।

इस Apache Sqoop ट्यूटोरियल के साथ शुरू करने से पहले, आइए हम एक कदम पीछे ले जाएँ। क्या आप डेटा अंतर्ग्रहण के महत्व को याद कर सकते हैं, जैसा कि हमने इस पर अपने पहले ब्लॉग में चर्चा की थी अपाचे फ्लूम । अब, जैसा कि हम जानते हैं कि Apache Flume असंरचित स्रोतों के लिए एक डेटा अंतर्ग्रहण उपकरण है, लेकिन संगठन अपने परिचालन डेटा को रिलेशनल डेटाबेस में संग्रहीत करते हैं। इसलिए, एक उपकरण की आवश्यकता थी जो रिलेशनल डेटाबेस से डेटा आयात और निर्यात कर सके। यही कारण है कि अपाचे सकोप का जन्म हुआ। सकोप आसानी से Hadoop के साथ एकीकृत हो सकता है और HDFS पर संबंधपरक डेटाबेस से संरचित डेटा को डंप कर सकता है, Hadoop की शक्ति की प्रशंसा कर सकता है। इसलिए, Apache Sqoop and Flume का ध्वनि ज्ञान अनिवार्य करता है।

प्रारंभ में, क्लोकडा द्वारा Sqoop का विकास और रखरखाव किया गया था। बाद में, 23 जुलाई 2011 को, यह अपाचे द्वारा ऊष्मायन किया गया था। अप्रैल 2012 में, अपेक की शीर्ष-स्तरीय परियोजना के रूप में सकोप परियोजना को बढ़ावा दिया गया था।





इस अपाचे फ्लुम ट्यूटोरियल ब्लॉग में, हम शामिल होंगे:



हम Apache Sqoop को शुरू करके इस Apache Sqoop ट्यूटोरियल की शुरुआत करेंगे। फिर आगे बढ़ते हुए, हम Apache Sqoop का उपयोग करने के फायदे समझेंगे।

अपाचे Squp ट्यूटोरियल: Sqoop परिचय

अपाचे Sqoop - अपाचे Sqoop ट्यूटोरियल - Edurekaआम तौर पर, अनुप्रयोग RDBMS का उपयोग करके रिलेशनल डेटाबेस के साथ बातचीत करते हैं, और इस प्रकार यह रिलेशनल डेटाबेस को बिग डेटा उत्पन्न करने वाले सबसे महत्वपूर्ण स्रोतों में से एक बनाता है। इस तरह के डेटा को आरडीबी सर्वर में रिलेशनल स्ट्रक्चर में स्टोर किया जाता है। यहाँ, अपाचे Sqoop एक महत्वपूर्ण भूमिका निभाता है रिलेशनल डेटाबेस सर्वर और HDFS के बीच व्यवहार्य सहभागिता प्रदान करता है।

तो, Apache Sqoop एक उपकरण है जिसे बीच में डेटा ट्रांसफर करने के लिए डिज़ाइन किया गया है HDFS (Hadoop स्टोरेज) और रिलेशनल डेटाबेस सर्वर जैसे MySQL, Oracle RDB, SQLite, Teradata, Netezza, Postgres आदि। Apache Sqoop रिलेशनल डेटाबेस से HDFS में डेटा आयात करता है और HDFS से रिलेशनल डेटाबेस में डेटा एक्सपोर्ट करता है। यह हडोप और बाहरी डेटा स्टोर जैसे एंटरप्राइज डेटा वेयरहाउस, रिलेशनल डेटाबेस आदि के बीच कुशलतापूर्वक बल्क डेटा ट्रांसफर करता है।



इस तरह से सोकूप को इसका नाम मिला - ' एसक्यू एल को था खुला हुआ और Hadoop SQL करने के लिए ”।

इसके अतिरिक्त, Sqoop का उपयोग बाहरी डेटास्टोर्स से Hadoop पारिस्थितिकी तंत्र के उपकरण जैसे डेटा आयात करने के लिए किया जाता है छत्ता और HBase

अब, जैसा कि हम जानते हैं कि Apache Sqoop क्या है। तो, हमें अपने Apache Sqoop ट्यूटोरियल में आगे बढ़ना चाहिए और यह समझना चाहिए कि संगठनों द्वारा बड़े पैमाने पर Sqoop का उपयोग क्यों किया जाता है।

अपाचे Sqoop ट्यूटोरियल: क्यों Sqoop?

Hadoop डेवलपर के लिए, HDFS में डेटा लोड होने के बाद वास्तविक गेम शुरू होता है। एचडीएफएस में संग्रहीत डेटा में छिपी विभिन्न अंतर्दृष्टि प्राप्त करने के लिए वे इस डेटा के आसपास खेलते हैं।

इसलिए, इस विश्लेषण के लिए, रिलेशनल डेटाबेस मैनेजमेंट सिस्टम में रहने वाले डेटा को एचडीएफएस में स्थानांतरित करना होगा। लिखने का कार्य HDFS से संबंधपरक डेटाबेस से डेटा आयात और निर्यात करने के लिए कोड निर्बाध और थकाऊ है। यह वह जगह है जहाँ अपाचे Sqoop बचाव और उनके दर्द को दूर करने के लिए आता है। यह डेटा को आयात और निर्यात करने की प्रक्रिया को स्वचालित करता है।

Sqoop डेटा आयात और निर्यात करने के लिए CLI प्रदान करके डेवलपर्स के जीवन को आसान बनाता है। उन्हें बस डेटाबेस प्रमाणीकरण, स्रोत, गंतव्य, संचालन आदि जैसी बुनियादी जानकारी प्रदान करनी है। यह शेष भाग की देखभाल करता है।

Sqoop आंतरिक रूप से कमांड को MapReduce के कार्यों में परिवर्तित करता है, जिसे तब HDFS पर निष्पादित किया जाता है। यह डेटा आयात और निर्यात करने के लिए YARN फ्रेमवर्क का उपयोग करता है, जो समानता के शीर्ष पर गलती सहिष्णुता प्रदान करता है।

इस Sqoop Tutorial ब्लॉग को आगे बढ़ाते हुए, हम Sqoop की प्रमुख विशेषताओं को समझेंगे और फिर हम Apache Sqoop वास्तुकला की ओर बढ़ेंगे।

Apache Sqoop Tutorial: सकोप की मुख्य विशेषताएं

Sqoop कई प्रमुख विशेषताएं प्रदान करता है जैसे:

  1. पूरा भार : Apache Sqoop पूरी तालिका को एक कमांड द्वारा लोड कर सकता है। आप एकल आदेश का उपयोग करके डेटाबेस से सभी तालिकाओं को भी लोड कर सकते हैं।
  2. वृद्धिशील भार : Apache Sqoop वृद्धिशील भार की सुविधा भी प्रदान करता है जहाँ आप अद्यतन किए जाने पर तालिका के कुछ हिस्सों को लोड कर सकते हैं।
  3. समांतर आयात निर्यात : Sqoop डेटा आयात करने और निर्यात करने के लिए YARN फ्रेमवर्क का उपयोग करता है, जो समानता के शीर्ष पर दोष सहिष्णुता प्रदान करता है।
  4. आयात परिणाम का एसक्यूएल क्वेरी : आप HDFS में SQL क्वेरी से लौटाए गए परिणाम को भी आयात कर सकते हैं।
  5. संपीड़न : आप अपने डेटा को डिफ्लेट (gzip) एल्गोरिथ्म का उपयोग करके -compress तर्क, या निर्दिष्ट -कंपनी-कोडेक तर्क द्वारा उपयोग करके संपीड़ित कर सकते हैं। आप संकुचित तालिका को भी लोड कर सकते हैं अपाचे हाइव
  6. कनेक्टर्स के लिये सब प्रमुख है RDBMS डेटाबेस : अपाचे Sqoop कई RDBMS डेटाबेस के लिए कनेक्टर प्रदान करता है, लगभग पूरे परिधि को कवर करता है।
  7. केर्बरोस सुरक्षा एकीकरण : केर्बरोस एक कंप्यूटर नेटवर्क प्रमाणीकरण प्रोटोकॉल है जो एक सुरक्षित तरीके से एक दूसरे को अपनी पहचान साबित करने के लिए गैर-सुरक्षित नेटवर्क पर संचार करने वाले नोड्स को अनुमति देने के लिए to टिकट ’के आधार पर काम करता है। Sqoop Kerberos प्रमाणीकरण का समर्थन करता है।
  8. भार डेटा सीधे तौर पर में HIVE / HBase : आप सीधे डेटा लोड कर सकते हैं अपाचे हाइव विश्लेषण के लिए और अपने डेटा को HBase में भी डंप करें, जो कि NoSQL डेटाबेस है।
  9. सहयोग के लिये संचय : आप Sqoop को HDFS में डायरेक्टरी की बजाय Accumulo में टेबल इम्पोर्ट करने का निर्देश भी दे सकते हैं।

वास्तुकला वह है जो इन लाभों के साथ अपाचे Squp को सशक्त बना रही है। अब, जैसा कि हम Apache Sqoop की विशेषताओं को जानते हैं, चलिए आगे बढ़ते हैं और Apache Sqoop की वास्तुकला और कार्य को समझते हैं।

Apache Sqoop Tutorial: Sqoop Architecture & Working

आइए समझते हैं कि अपाचे सैकूप नीचे दिए गए आरेख का उपयोग करके कैसे काम करता है:

आयात उपकरण RDBMS से HDFS में अलग-अलग तालिकाओं का आयात करता है। तालिका में प्रत्येक पंक्ति को HDFS में रिकॉर्ड के रूप में माना जाता है।

जब हम Sqoop कमांड सबमिट करते हैं, तो हमारा मुख्य कार्य उप-प्रकारों में विभाजित हो जाता है, जिसे आंतरिक रूप से अलग-अलग मैप टास्क द्वारा नियंत्रित किया जाता है। मैप टास्क वह सबटैस्क है, जो Hadoop Ecosystem में डेटा का हिस्सा आयात करता है। सामूहिक रूप से, सभी मानचित्र कार्य पूरे डेटा को आयात करते हैं।

निर्यात भी इसी तरह से काम करता है।

निर्यात उपकरण HDFS से वापस RDBMS फाइल का एक सेट निर्यात करता है। Sqoop के इनपुट के रूप में दी गई फाइलों में रिकॉर्ड होते हैं, जिन्हें तालिका में पंक्तियों के रूप में कहा जाता है।

जब हम अपनी नौकरी जमा करते हैं, तो इसे मैप टास्क में मैप किया जाता है, जो एचडीएफएस से डेटा का हिस्सा लाता है। ये हिस्सा एक संरचित डेटा गंतव्य को निर्यात किया जाता है। इन सभी निर्यात किए गए डेटा को जोड़ते हुए, हम पूरे डेटा को गंतव्य पर प्राप्त करते हैं, जो कि ज्यादातर मामलों में RDBMS (MYSQL / Oracle / SQL सर्वर) है।

एकत्रीकरण के मामले में कम चरण की आवश्यकता है। लेकिन, Apache Sqoop सिर्फ उन डेटा को आयात और निर्यात करता है जो किसी भी एकत्रीकरण को नहीं करता है। उपयोगकर्ता द्वारा परिभाषित संख्या के आधार पर मैप जॉब कई मैपर्स लॉन्च करता है। सैकूप आयात के लिए, प्रत्येक मैपर कार्य को आयात किए जाने वाले डेटा के एक भाग के साथ सौंपा जाएगा। Sqoop उच्च प्रदर्शन प्राप्त करने के लिए समान रूप से मैपर्स के बीच इनपुट डेटा वितरित करता है। फिर प्रत्येक मैपर JDBC का उपयोग करके डेटाबेस के साथ एक संबंध बनाता है और Sqoop द्वारा निर्दिष्ट डेटा का हिस्सा प्राप्त करता है और इसे CLFS में प्रदान की गई दलीलों के आधार पर HDFS या Hive या HBase में लिखता है।

अब जब हम Apache Sqoop की वास्तुकला और कार्य को समझते हैं, तो Apache Flume और Apache Sqoop के अंतर को समझते हैं।

Apache Sqoop Tutorial: फ्लूक बनाम सकोप

Flume और Sqoop के बीच मुख्य अंतर यह है कि:

  • फ़्लू केवल असंरचित डेटा या अर्ध-संरचित डेटा को HDFS में शामिल करता है।
  • जबकि Squp RDBMS या एंटरप्राइज़ डेटा वेयरहाउस से HDFS या इसके विपरीत संरचित डेटा को आयात कर सकता है।

अब, हमारे Apache Sqoop Tutorial में आगे बढ़ते हुए यह Apache Sqoop कमांड से गुजरने का उच्च समय है।

अपाचे Squp ट्यूटोरियल: Sqoop कमांड्स

  • Sqoop - महत्वपूर्ण आदेश

आयात कमांड का उपयोग संबंधपरक डेटाबेस से एक तालिका को एचडीएफएस में आयात करने के लिए किया जाता है। हमारे मामले में, हम MySQL डेटाबेस से HDFS में तालिकाओं को आयात करने जा रहे हैं।

जैसा कि आप नीचे दी गई छवि में देख सकते हैं, हमारे पास कर्मचारी डेटाबेस में कर्मचारी तालिका है जिसे हम एचडीएफएस में आयात करेंगे।

आयात तालिका के लिए आदेश है:

जावा सरणी में सबसे बड़ी संख्या पाते हैं
स्कूप आयात --connect jdbc: mysql: // लोकलहोस्ट / कर्मचारी - कर्मचारी का नाम:

जैसा कि आप नीचे दिए गए चित्र में देख सकते हैं, इस कमांड को निष्पादित करने के बाद मैप कार्यों को अंतिम छोर पर निष्पादित किया जाएगा।

कोड निष्पादित होने के बाद, आप एचडीएफएस के वेब यूआई यानी लोकलहोस्ट: 50070 की जांच कर सकते हैं जहां डेटा आयात किया जाता है।

  • Sqoop - लक्ष्य निर्देशिका के साथ महत्वपूर्ण आदेश

आप नीचे दिए गए आदेश का उपयोग करके HDFS में एक विशिष्ट निर्देशिका में तालिका आयात कर सकते हैं:

स्कूप आयात --connect jdbc: mysql: // लोकलहोस्ट / कर्मचारी -सुर्नमे एडुरेका - योग्य कर्मचारी --m 1 --target-dir / कर्मचारी

Sqoop अधिकांश डेटाबेस स्रोतों से समानांतर में डेटा आयात करता है। -म संपत्ति का उपयोग निष्पादित करने के लिए मैपर की संख्या निर्दिष्ट करने के लिए किया जाता है।

Sqoop अधिकांश डेटाबेस स्रोतों से समानांतर में डेटा आयात करता है। आप उपयोग करके आयात करने के लिए मानचित्र कार्यों (समानांतर प्रक्रियाओं) की संख्या निर्दिष्ट कर सकते हैं -म या —नम- mappers बहस। इनमें से प्रत्येक तर्क एक पूर्णांक मान लेता है जो रोजगार के लिए समानता की डिग्री से मेल खाता है।

आप निर्देशिका में मौजूद फ़ाइलों की संख्या से स्वतंत्र रूप से मैपर्स की संख्या को नियंत्रित कर सकते हैं। निर्यात प्रदर्शन समानता की डिग्री पर निर्भर करता है। डिफ़ॉल्ट रूप से, Sqoop निर्यात प्रक्रिया के लिए समानांतर में चार कार्यों का उपयोग करेगा। यह इष्टतम नहीं हो सकता है, आपको अपने स्वयं के विशेष सेटअप के साथ प्रयोग करने की आवश्यकता होगी। अतिरिक्त कार्य बेहतर संगति प्रदान कर सकते हैं, लेकिन यदि डेटाबेस पहले से ही सूचकांकों को अद्यतन करने, ट्रिगर करने वाले, और इसी तरह, तो अतिरिक्त लोड प्रदर्शन को कम कर सकता है।

आप नीचे दी गई छवि में देख सकते हैं, कि मैपर टास्क की संख्या 1 है।

MySQL तालिकाओं को आयात करते समय बनाई गई फ़ाइलों की संख्या बनाए गए मैपर की संख्या के बराबर है।

  • Sqoop - महत्वपूर्ण आदेश जहाँ क्लॉज़ के साथ

आप Sqoop आयात टूल में cl जहां क्लॉज ’का उपयोग करके किसी तालिका का सबसेट आयात कर सकते हैं। यह संबंधित डेटाबेस सर्वर में संबंधित SQL क्वेरी को निष्पादित करता है और परिणाम को एचडीएफएस में लक्ष्य निर्देशिका में संग्रहीत करता है। आप can के साथ डेटा आयात करने के लिए निम्न आदेश का उपयोग कर सकते हैं कहां है ‘खंड:

स्कूप आयात --connect jdbc: mysql: // लोकलहोस्ट / कर्मचारी -सुर्नमे एडेर्का - अनुकूल कर्मचारी - मी 3 - कहीं 'एम्प_नो एंड जीई 49000' - लिटरेचर-डायर / Latest_Emproyees

  • Sqoop - वृद्धिशील आयात

Sqoop एक वृद्धिशील आयात मोड प्रदान करता है जिसका उपयोग पंक्तियों के कुछ पहले से आयातित सेट की तुलना में केवल नई पंक्तियों को पुनः प्राप्त करने के लिए किया जा सकता है। Sqoop वृद्धिशील आयात के दो प्रकारों का समर्थन करता है: संलग्न करना तथा अंतिम बार संशोधित । प्रदर्शन करने के लिए वृद्धिशील आयात के प्रकार को निर्दिष्ट करने के लिए आप -incremental तर्क का उपयोग कर सकते हैं।

आपको निर्दिष्ट करना चाहिए संलग्न करना मोड जब एक तालिका आयात करते हैं जहां नई पंक्तियों को लगातार पंक्ति आईडी मानों के साथ जोड़ा जा रहा है। आप पंक्ति की आईडी वाले कॉलम को निर्दिष्ट करते हैं -चेक-कॉलम । Sqoop उन पंक्तियों को आयात करता है जहाँ चेक कॉलम में निर्दिष्ट मान से अधिक मूल्य होता है -खर्च-मूल्य

Sqoop द्वारा समर्थित एक वैकल्पिक तालिका अद्यतन रणनीति कहा जाता है अंतिम बार संशोधित मोड। जब स्रोत तालिका की पंक्तियों को अद्यतन किया जा सकता है, तो आपको इसका उपयोग करना चाहिए, और ऐसा प्रत्येक अद्यतन अंतिम टाइमस्टैम्प के मान को वर्तमान टाइमस्टैम्प में सेट करेगा।

बाद के आयात को चलाते समय, आपको निर्दिष्ट करना चाहिए -खर्च-मूल्य इस तरह से यह सुनिश्चित करने के लिए कि आप केवल नए या अपडेट किए गए डेटा को आयात करें। यह सहेजे गए कार्य के रूप में एक वृद्धिशील आयात बनाकर स्वचालित रूप से नियंत्रित किया जाता है, जो कि आवर्ती वृद्धिशील आयात करने के लिए पसंदीदा तंत्र है।

सबसे पहले, हम एक नई पंक्ति सम्मिलित कर रहे हैं जिसे हमारे HDFS में अपडेट किया जाएगा।

वृद्धिशील आयात के लिए आदेश है:

स्कूप आयात --connect jdbc: mysql: // localhost / कर्मचारी --username edureka-table कर्मचारी --target-dir / Latest_Employees-incremental append --check-column_no-last-value 499999

आप नीचे दी गई छवि में देख सकते हैं, अद्यतन डेटा के साथ एक नई फ़ाइल बनाई गई है।

  • Sqoop - सभी तालिकाओं को आयात करें

आप RDBMS डेटाबेस सर्वर से सभी तालिकाओं को HDFS में आयात कर सकते हैं। प्रत्येक तालिका डेटा को एक अलग निर्देशिका में संग्रहीत किया जाता है और निर्देशिका नाम तालिका नाम के समान है। यह अनिवार्य है कि उस डेटाबेस की प्रत्येक तालिका में एक प्राथमिक कुंजी फ़ील्ड होनी चाहिए। डेटाबेस से सभी तालिका आयात करने की कमान है:

squp import-all-tables --connect jdbc: mysql: // localhost / कर्मचारी -सुनेम एडुर्का

  • Sqoop - सूची डेटाबेस

आप Sqoop का उपयोग करके संबंध डेटाबेस में मौजूद डेटाबेस को सूचीबद्ध कर सकते हैं। Sqoop सूची-डेटाबेस उपकरण पार्स करता है और डेटाबेस सर्वर के खिलाफ 'SHAT DATABASES' क्वेरी निष्पादित करता है। डेटाबेस लिस्टिंग के लिए कमांड है:

squp सूची-डेटाबेस --connect jdbc: mysql: // localhost / --username edureka

  • सकोप - सूची सारणी

आप Sqoop का उपयोग करके MySQL डेटाबेस सर्वर में किसी विशेष डेटाबेस की तालिकाओं को भी सूचीबद्ध कर सकते हैं। Sqoop सूची-तालिका उपकरण पार्स करता है और T SHOW TABLES ’क्वेरी को निष्पादित करता है। टेबल्स को सूचीबद्ध करने का कमांड एक डेटाबेस है:

अपाचे चिंगारी बनाम हडप मानचित्रण
स्कूप सूची-तालिकाओं --connect jdbc: mysql: // लोकलहोस्ट / कर्मचारी -युज़र्न एडुर्का

  • सकोप - निर्यात

जैसा कि हमने ऊपर चर्चा की है, आप एचडीएफएस से आरडीबीएमएस डेटाबेस में डेटा निर्यात भी कर सकते हैं। लक्ष्य तालिका लक्ष्य डेटाबेस में मौजूद होनी चाहिए।डेटा को एचडीएफएस में रिकॉर्ड के रूप में संग्रहीत किया जाता है। ये रिकॉर्ड पढ़े और पार्स और उपयोगकर्ता-निर्दिष्ट सीमांकक के साथ सीमांकित हैं।डिफ़ॉल्ट ऑपरेशन INSERT स्टेटमेंट का उपयोग करके इनपुट फ़ाइल से डेटाबेस तालिका में सभी रिकॉर्ड सम्मिलित करना है। अपडेट मोड में, Sqoop UPDATE स्टेटमेंट बनाता है जो मौजूदा रिकॉर्ड को डेटाबेस में बदल देता है।

इसलिए, पहले हम एक खाली तालिका बना रहे हैं, जहां हम अपना डेटा निर्यात करेंगे।

HDFS से रिलेशनल डेटाबेस में डेटा निर्यात करने की कमांड है:

स्कूप निर्यात --connect jdbc: mysql: // लोकलहोस्ट / कर्मचारी - ऑन्सरनेम edureka --table emp --export-dir / user / edureka / कर्मचारी

  • सकोप - कोडेन

ऑब्जेक्ट-ओरिएंटेड एप्लिकेशन में, प्रत्येक डेटाबेस टेबल में एक डेटा एक्सेस ऑब्जेक्ट क्लास होता है जिसमें ऑब्जेक्ट्स को आरम्भ करने के लिए ’गेट्टर’ और ter सेटर ’तरीके होते हैं। कोडेन डीएओ क्लास को स्वचालित रूप से उत्पन्न करता है। यह तालिका स्कीमा संरचना के आधार पर जावा में DAO वर्ग उत्पन्न करता है।

जावा कोड बनाने के लिए कमांड है:

स्कूप कोडगेन --connect jdbc: mysql: // लोकलहोस्ट / कर्मचारी -सुनेमनाम यूरेका - दायित्व कर्मचारी

आप उपरोक्त छवि में पथ देख सकते हैं जहां कोड उत्पन्न होता है। आइए हम पथ पर जाएं और बनाई गई फ़ाइलों की जांच करें।

मुझे उम्मीद है कि यह ब्लॉग जानकारीपूर्ण है और आपके लिए मूल्य वर्धित है। यदि आप अधिक जानने के इच्छुक हैं, तो आप इसके माध्यम से जा सकते हैं जो आपको बिग डेटा के बारे में बताता है और कैसे Hadoop बिग डेटा से संबंधित चुनौतियों को हल कर रहा है।

अब जब आप Apache Sqoop समझ गए हैं, तो देखें 250,000 से अधिक संतुष्ट शिक्षार्थियों के एक नेटवर्क के साथ एक विश्वसनीय ऑनलाइन शिक्षण कंपनी, एडुरेका द्वारा, दुनिया भर में फैली हुई है। Edureka Big Data Hadoop सर्टिफिकेशन ट्रेनिंग कोर्स शिक्षार्थियों को रिटेल, सोशल मीडिया, एविएशन, टूरिज्म, फाइनेंस डोमेन पर रियल-टाइम उपयोग के मामलों का उपयोग करके HDFS, यार्न, MapReduce, Pig, Hive, HBase, Oozie, Flume और Sqoop में निपुण बनने में मदद करता है।

क्या आप हमसे कोई प्रश्न पूछना चाहते हैं? कृपया टिप्पणी अनुभाग में इसका उल्लेख करें और हम आपके पास वापस आ जाएंगे।