मशीन लर्निंग में, परसेप्ट्रोन बाइनरी क्लासिफायर के लिए पर्यवेक्षित लर्निंग एल्गोरिदम है। इसे अक्सर एक परसेप्ट्रोन भी कहा जाता है। एक बाइनरी क्लासिफायर एक ऐसा फ़ंक्शन है जो यह तय कर सकता है कि संख्याओं के वेक्टर द्वारा दर्शाया गया इनपुट किसी विशेष वर्ग से संबंधित है या नहीं। यह एक प्रकार का लीनियर क्लासिफायरियर है, जो कि एक वर्गीकरण एल्गोरिथम है जो एक लीनियर प्रेडिक्टर फंक्शन के आधार पर अपनी भविष्यवाणी करता है जो एक फीचर वेक्टर के साथ वेट के एक सेट को जोड़ता है।
हाल के वर्षों में, गहन सीखने में प्रगति के कारण कृत्रिम तंत्रिका नेटवर्क ने ध्यान आकर्षित किया है। लेकिन एक कृत्रिम तंत्रिका नेटवर्क क्या है और इसमें क्या शामिल है?
परसेप्ट्रॉन से मिलें
इस लेख में, हम सामान्य रूप से कृत्रिम तंत्रिका नेटवर्क पर एक त्वरित नज़र डालेंगे, फिर एक न्यूरॉन को देखेंगे, और अंत में (यह कोडिंग भाग है) हम एक कृत्रिम का सबसे बुनियादी संस्करण लेंगे। न्यूरॉन, परसेप्ट्रॉन, और इसके बिंदुओं को वर्गीकृत करेंविमान।
क्या आपने कभी सोचा है कि ऐसे कार्य क्यों हैं जो किसी भी व्यक्ति के लिए इतने आसान हैं, लेकिन कंप्यूटर के लिए अविश्वसनीय रूप से कठिन हैं? कृत्रिम तंत्रिका नेटवर्क (संक्षेप में एएनएन) मानव केंद्रीय तंत्रिका तंत्र से प्रेरित थे। अपने जैविक समकक्ष की तरह, एएनएन सरल सिग्नल प्रोसेसिंग तत्वों पर बने होते हैं जिन्हें एक बड़े ग्रिड में संयोजित किया जाता है।
तंत्रिका नेटवर्क को सीखना चाहिए
परंपरागत एल्गोरिदम के विपरीत, तंत्रिका नेटवर्क को "प्रोग्राम" या "ट्यून" के रूप में काम करने के लिए इरादा नहीं किया जा सकता है। मानव मस्तिष्क की तरह ही उन्हें भी कार्य को पूरा करना सीखना चाहिए। मोटे तौर पर, सीखने की तीन रणनीतियाँ हैं।
ज्ञात परिणामों के साथ एक परीक्षण केस (काफी बड़ा) होने पर सबसे आसान तरीका इस्तेमाल किया जा सकता है। फिर प्रशिक्षण इस प्रकार है: डेटा के एक सेट को संसाधित करें। परिणाम की तुलना ज्ञात परिणाम से करें। नेटवर्क सेट करें और पुन: प्रयास करें। यह सीखने की रणनीति है जिसका हम यहां उपयोग करेंगे।
अनपर्यवेक्षित लर्निंग
उपयोगी यदि कोई परीक्षण डेटा उपलब्ध नहीं है और यदि वांछित व्यवहार से कुछ लागत फ़ंक्शन प्राप्त करना संभव है। लागत फ़ंक्शन तंत्रिका नेटवर्क को बताता है कि यह लक्ष्य से कितनी दूर है। नेटवर्क तब वास्तविक डेटा के साथ काम करते हुए अपने मापदंडों को तुरंत समायोजित कर सकता है।
प्रबलित सीखना
"गाजर और छड़ी" विधि। यदि तंत्रिका नेटवर्क निरंतर क्रिया उत्पन्न करता है तो इसका उपयोग किया जा सकता है। समय के साथ, नेटवर्क सही कार्यों को प्राथमिकता देना और गलत कार्यों से बचना सीखता है।
ठीक है, अब हम थोड़ा जानते हैंकृत्रिम तंत्रिका नेटवर्क की प्रकृति, लेकिन वास्तव में वे किससे बने हैं? अगर हम ढक्कन खोलकर अंदर देखें तो हम क्या देखेंगे?
न्यूरॉन्स तंत्रिका नेटवर्क के निर्माण खंड हैं। किसी भी कृत्रिम तंत्रिका नेटवर्क का मुख्य घटक एक कृत्रिम न्यूरॉन है। न केवल उनका नाम उनके जैविक समकक्षों के नाम पर रखा गया है, बल्कि वे हमारे दिमाग में न्यूरॉन्स के व्यवहार के अनुसार भी तैयार किए गए हैं।
जीव विज्ञान बनाम प्रौद्योगिकी
जिस तरह एक जैविक न्यूरॉन में सिग्नल प्राप्त करने के लिए डेंड्राइट होते हैं, उन्हें संसाधित करने के लिए एक सेल बॉडी, और अन्य न्यूरॉन्स को सिग्नल भेजने के लिए एक एक्सॉन, एक कृत्रिम न्यूरॉन में कई इनपुट चैनल, एक प्रोसेसिंग स्टेज और एक आउटपुट होता है जो कर सकता है कई अन्य लोगों के लिए शाखा। कृत्रिम न्यूरॉन्स।
क्या हम सिंगल परसेप्ट्रोन के साथ कुछ उपयोगी कर सकते हैं? समस्याओं का एक वर्ग है जिसे एक एकल परसेप्ट्रॉन हल कर सकता है। बिंदु निर्देशांक के रूप में इनपुट वेक्टर पर विचार करें। n-तत्वों वाले वेक्टर के लिए, यह बिंदु n-आयामी अंतरिक्ष में रहेगा। जीवन को सरल बनाने के लिए (और नीचे दिया गया कोड), आइए मान लें कि यह 2D है। कागज के टुकड़े की तरह।
अगला, कल्पना कीजिए कि हम इस तल पर कुछ यादृच्छिक बिंदु खींचते हैं और कागज पर एक सीधी रेखा खींचकर उन्हें दो सेटों में विभाजित करते हैं। यह रेखा बिंदुओं को दो सेटों में विभाजित करती है, एक ऊपर और एक रेखा के नीचे। तब दो समुच्चयों को रैखिक रूप से वियोज्य कहा जाता है।
एक परसेप्ट्रॉन, चाहे वह कितना भी सरल क्यों न लगे, यह जानने में सक्षम है कि यह रेखा कहाँ है, और जब यह प्रशिक्षण समाप्त कर लेता है, तो यह निर्धारित कर सकता है कि कोई बिंदु इस रेखा के ऊपर या नीचे है।
इतिहासआविष्कार
इस पद्धति के लिए एल्गोरिथम का आविष्कार 1957 में कॉर्नेल एविएशन लेबोरेटरी में फ्रैंक रोसेनब्लैट (अक्सर उनके नाम पर) द्वारा किया गया था, जिसे यूएस ऑफिस ऑफ नेवल रिसर्च द्वारा वित्त पोषित किया गया था। परसेप्ट्रोन का उद्देश्य एक मशीन होना था, प्रोग्राम नहीं, और हालांकि इसका पहला कार्यान्वयन आईबीएम 704 के लिए सॉफ्टवेयर में था, बाद में इसे "मार्क 1 परसेप्ट्रॉन" के रूप में कस्टम-निर्मित हार्डवेयर पर लागू किया गया था। इस मशीन को छवि पहचान के लिए डिज़ाइन किया गया था: इसमें 400 फोटोकल्स की एक सरणी थी जो बेतरतीब ढंग से न्यूरॉन्स से जुड़ी थी। वज़न को पोटेंशियोमीटर में एन्कोड किया गया था और प्रशिक्षण के दौरान वज़न अपडेट इलेक्ट्रिक मोटर्स द्वारा किया गया था।
1958 में अमेरिकी नौसेना द्वारा आयोजित एक प्रेस कॉन्फ्रेंस में, रोसेनब्लैट ने परसेप्ट्रोन के बारे में बयान दिया जिससे युवा एआई समुदाय के बीच गरमागरम बहस हुई; रोसेनब्लैट के दावों के आधार पर, न्यूयॉर्क टाइम्स ने रिपोर्ट किया कि परसेप्ट्रॉन "भ्रूण इलेक्ट्रॉनिक कंप्यूटर है जिसे नौसेना चलने, बात करने, देखने, लिखने, खुद को पुन: पेश करने और अपने अस्तित्व के बारे में जागरूक होने की उम्मीद करती है।"
आगे के घटनाक्रम
हालाँकि शुरुआत में परसेप्ट्रोन आशाजनक लग रहा था, यह जल्दी ही साबित हो गया कि परसेप्ट्रोन को पैटर्न के कई वर्गों को पहचानने के लिए प्रशिक्षित नहीं किया जा सकता है। इसने अनुसंधान क्षेत्र में कई वर्षों तक परसेप्ट्रॉन तंत्रिका नेटवर्क के साथ एक ठहराव का नेतृत्व किया, यह मान्यता प्राप्त होने से पहले कि दो या दो से अधिक परतों के साथ एक फीड-फॉरवर्ड तंत्रिका नेटवर्क (जिसे भी कहा जाता है)मल्टीलेयर परसेप्ट्रॉन) में सिंगल लेयर परसेप्ट्रोन (जिसे सिंगल लेयर परसेप्ट्रोन भी कहा जाता है) की तुलना में बहुत अधिक प्रसंस्करण शक्ति थी। एक सिंगल-लेयर परसेप्ट्रॉन केवल रैखिक रूप से अलग करने योग्य संरचनाओं का अध्ययन करने में सक्षम है। 1969 में, मार्विन मिन्स्की और सीमोर पैपर्ट की प्रसिद्ध पुस्तक "परसेप्ट्रोन" ने दिखाया कि नेटवर्क के ये वर्ग XOR फ़ंक्शन नहीं सीख सकते थे। हालांकि, यह गैर-रेखीय वर्गीकरण कार्यों पर लागू नहीं होता है जिनका उपयोग सिंगल-लेयर परसेप्ट्रॉन में किया जा सकता है।
ऐसे कार्यों का उपयोग परसेप्ट्रॉन की क्षमताओं का विस्तार करता है, जिसमें एक्सओआर फ़ंक्शन का कार्यान्वयन भी शामिल है। यह अक्सर (गलत तरीके से) माना जाता है कि उन्होंने यह भी मान लिया था कि एक समान परिणाम एक बहुपरत परसेप्ट्रॉन नेटवर्क के लिए होगा। हालांकि, यह मामला नहीं है, क्योंकि मिन्स्की और पैपर्ट दोनों पहले से ही जानते थे कि बहुपरत परसेप्ट्रोन एक एक्सओआर फ़ंक्शन का उत्पादन करने में सक्षम थे। तीन साल बाद, स्टीवन ग्रॉसबर्ग ने विभिन्न प्रकार के कार्यों, कंट्रास्ट एन्हांसमेंट फ़ंक्शंस और एक्सओआर फ़ंक्शंस को मॉडलिंग करने में सक्षम नेटवर्क प्रस्तुत करने वाले पत्रों की एक श्रृंखला प्रकाशित की।
वर्क्स 1972 और 1973 में प्रकाशित हुए थे। हालांकि, अक्सर अनदेखी किए गए मिन्स्की / पेपर टेक्स्ट ने तंत्रिका नेटवर्क परसेप्ट्रॉन के साथ ब्याज और अनुसंधान निधि में महत्वपूर्ण गिरावट का कारण बना। 1980 के दशक में तंत्रिका नेटवर्क अनुसंधान को पुनर्जीवित करने से पहले एक और दस साल बीत गए।
विशेषताएं
Perceptron कर्नेल एल्गोरिथम 1964 में Yzerman et al द्वारा पेश किया गया था।मोरी और रोस्तमीज़ादेह (2013), जो पिछले परिणामों का विस्तार करते हैं और नई सीमाएँ L1 देते हैं।
परसेप्ट्रॉन एक जैविक न्यूरॉन का सरलीकृत मॉडल है। जबकि तंत्रिका संबंधी व्यवहार को पूरी तरह से समझने के लिए अक्सर जैविक तंत्रिका मॉडल की जटिलता की आवश्यकता होती है, अनुसंधान से पता चलता है कि एक परसेप्ट्रॉन जैसा रैखिक मॉडल वास्तविक न्यूरॉन्स में देखे गए कुछ व्यवहार को प्रेरित कर सकता है।
परसेप्ट्रॉन एक रेखीय क्लासिफायरियर है, इसलिए यह कभी भी ऐसी स्थिति में नहीं आएगा जब सभी इनपुट वैक्टर सही ढंग से वर्गीकृत हों यदि प्रशिक्षण सेट डी रैखिक रूप से अलग नहीं है, अर्थात। यदि सकारात्मक उदाहरणों को हाइपरप्लेन द्वारा नकारात्मक उदाहरणों से अलग नहीं किया जा सकता है। इस मामले में, कोई भी "अनुमानित" समाधान मानक शिक्षण एल्गोरिथ्म के माध्यम से कदम से कदम मिलाकर नहीं चलेगा, इसके बजाय सीखना पूरी तरह से विफल हो जाएगा। इसलिए, यदि प्रशिक्षण सेट की रेखीय वियोज्यता को प्राथमिकता के रूप में नहीं जाना जाता है, तो नीचे दिए गए प्रशिक्षण विकल्पों में से एक का उपयोग किया जाना चाहिए।
पॉकेट एल्गोरिथम
शाफ़्ट पॉकेट एल्गोरिथम "जेब में" अब तक पाए गए सबसे अच्छे समाधान को रखकर परसेप्ट्रॉन सीखने की मजबूती की समस्या को हल करता है। पॉकेट एल्गोरिथम तब अंतिम समाधान के बजाय समाधान को पॉकेट में लौटाता है। इसका उपयोग गैर-वियोज्य डेटासेट के लिए भी किया जा सकता है जहां लक्ष्य कुछ गलत वर्गीकरण के साथ एक परसेप्ट्रॉन को ढूंढना है। हालाँकि, ये समाधान स्टोकेस्टिक दिखते हैं और इसलिए पॉकेट एल्गोरिथम उन पर फिट नहीं बैठता है।प्रशिक्षण के दौरान धीरे-धीरे, और निश्चित संख्या में प्रशिक्षण चरणों में उनका पता लगाने की गारंटी नहीं है।
मैक्सओवर एल्गोरिथम
मैक्सओवर का एल्गोरिथम इस अर्थ में "मजबूत" है कि यह डेटा सेट की रैखिक पृथक्करणीयता के ज्ञान की परवाह किए बिना अभिसरण करेगा। रैखिक विभाजन के मामले में, यह सीखने की समस्या को हल करेगा, वैकल्पिक रूप से इष्टतम स्थिरता (कक्षाओं के बीच अधिकतम मार्जिन) के साथ भी। गैर-वियोज्य डेटासेट के लिए, कम संख्या में गलत वर्गीकरण वाला समाधान लौटाया जाएगा। सभी मामलों में, एल्गोरिथ्म धीरे-धीरे सीखने की प्रक्रिया के दौरान, पिछले राज्यों को याद किए बिना और यादृच्छिक छलांग के बिना समाधान तक पहुंचता है। साझा डेटा सेट के लिए वैश्विक इष्टतमता और गैर-वियोज्य डेटा सेट के लिए स्थानीय इष्टतमता में अभिसरण निहित है।
मतदान परसेप्ट्रॉन
वोटेड परसेप्ट्रॉन एल्गोरिथम कई भारित परसेप्ट्रोन का उपयोग करने वाला एक प्रकार है। एल्गोरिथ्म हर बार एक उदाहरण गलत वर्गीकृत होने पर एक नया परसेप्ट्रॉन शुरू करता है, वजन वेक्टर को अंतिम परसेप्ट्रॉन के अंतिम भार के साथ आरंभ करता है। प्रत्येक परसेप्ट्रॉन को एक अलग वजन भी दिया जाएगा, जो कि गलत तरीके से वर्गीकृत करने से पहले कितने उदाहरणों को सही ढंग से वर्गीकृत करता है, और अंत में आउटपुट पूरे परसेप्ट्रॉन में एक भारित वोट होगा।
आवेदन
वियोज्य समस्याओं में, परसेप्ट्रॉन प्रशिक्षण का उद्देश्य कक्षाओं के बीच सबसे बड़ी पृथक्करण सीमा का पता लगाना भी हो सकता है। तथाकथितएक इष्टतम स्थिरता परसेप्ट्रॉन को पुनरावृत्त प्रशिक्षण और अनुकूलन योजनाओं जैसे कि मिन-ओवर या एडाट्रॉन एल्गोरिथम का उपयोग करके निर्धारित किया जा सकता है। AdaTron इस तथ्य का फायदा उठाता है कि संबंधित द्विघात अनुकूलन समस्या उत्तल है। इष्टतम स्थिरता परसेप्ट्रॉन, कर्नेल ट्रिक के साथ, सपोर्ट वेक्टर मशीन का वैचारिक आधार है।
वैकल्पिक
कई परतों का उपयोग किए बिना गैर-रैखिक समस्याओं को हल करने का एक और तरीका उच्च क्रम नेटवर्क (सिग्मा-पीआई ब्लॉक) का उपयोग करना है। इस प्रकार के नेटवर्क में, इनपुट वेक्टर के प्रत्येक तत्व को गुणा किए गए इनपुट (द्वितीय क्रम) के प्रत्येक जोड़ीदार संयोजन द्वारा विस्तारित किया जाता है। इसे एन-ऑर्डर नेटवर्क तक बढ़ाया जा सकता है। परसेप्ट्रॉन एक बहुत ही लचीली चीज है।
हालांकि, याद रखें कि सबसे अच्छा क्लासिफायरियर जरूरी नहीं है कि वह सभी प्रशिक्षण डेटा को सटीक रूप से वर्गीकृत करे। वास्तव में, यदि हमारे पास पूर्व बाधा थी कि डेटा समान-भिन्न गाऊसी वितरण से आता है, तो इनपुट स्थान में एक रैखिक विभाजन इष्टतम है, और एक गैर-रेखीय समाधान ओवरराइड है।
अन्य रैखिक वर्गीकरण एल्गोरिदम में विनो, सपोर्ट वेक्टर और लॉजिस्टिक रिग्रेशन शामिल हैं। Perceptron एल्गोरिदम का एक सार्वभौमिक सेट है।
पर्यवेक्षित शिक्षण का मुख्य दायरा
पर्यवेक्षित शिक्षण एक मशीन सीखने का कार्य है जो एक फ़ंक्शन सीखता है जो इनपुट को आउटपुट में मैप करता हैI/O जोड़े के उदाहरणों के आधार पर। वे उदाहरणों के एक सेट से युक्त लेबल प्रशिक्षण डेटा से एक विशेषता का अनुमान लगाते हैं। पर्यवेक्षित शिक्षण में, प्रत्येक उदाहरण एक जोड़ी है जिसमें एक इनपुट ऑब्जेक्ट (आमतौर पर एक वेक्टर) और एक वांछित आउटपुट मान (जिसे नियंत्रण संकेत भी कहा जाता है) होता है।
पर्यवेक्षित शिक्षण एल्गोरिदम प्रशिक्षण डेटा का विश्लेषण करता है और एक अनुमानित फ़ंक्शन तैयार करता है जिसका उपयोग नए उदाहरण प्रदर्शित करने के लिए किया जा सकता है। इष्टतम परिदृश्य एल्गोरिदम को अदृश्य उदाहरणों के लिए कक्षा लेबल को सही ढंग से निर्धारित करने की अनुमति देगा। इसके लिए लर्निंग एल्गोरिथम की आवश्यकता होती है ताकि सीखने के डेटा को "उचित" तरीके से अनदेखी स्थितियों में सामान्यीकृत किया जा सके।
मानव और पशु मनोविज्ञान में समानांतर कार्य को अक्सर वैचारिक शिक्षा कहा जाता है।