முகப்பு /செய்தி /தொழில்நுட்பம் / திருமண உறவை முடிக்கச் சொன்ன chatGPT... AI சாட்போட்டுக்கு கட்டுப்பாடுகள் போடும் மைக்ரோசாப்ட்

திருமண உறவை முடிக்கச் சொன்ன chatGPT... AI சாட்போட்டுக்கு கட்டுப்பாடுகள் போடும் மைக்ரோசாப்ட்

CHATGPT

CHATGPT

chatGPT உடனான அதீத சாட்களால் bing அடிப்படை செயல்பாடு குழப்பம் அடைவதாகவும் அதை சரி செய்யவே இந்த நடவடிக்கை எடுக்கப்பட்டுள்ளதாகவும் நிறுவனம் தெரிவித்துள்ளது.

  • News18 Tamil
  • 1-MIN READ
  • Last Updated :
  • Chennai, India

கடந்த நவம்பர் மாதம் அறிமுகப்படுத்தப்பட்ட செயற்கை நுண்ணறிவு சாட் பாக்ஸ் chatGPT இன் மோகம் பயனர்களிடையே நாளுக்கு நாள் அதிகரித்து வருகிறது. இந்த மாதம் தொடக்கத்தில் மைக்ரோசாப்ட் நிறுவனத்தின் பிங் bing தேடு பொறியோடு chatGPT இணைக்கப்பட்டு செயல்பட்டு வந்தது.

இந்நிலையில் நன்றாக போய்க்கொண்டு இருந்த chatGPT- bing பயன்பாடு தற்போது முதல் தொல்லையை கொடுக்க ஆரம்பித்துள்ளது.  சோதனை முறையில் இருந்து சமோகத்திற்குள் குதித்துள்ள chatGPT மக்களிடம் பேச பேச அதன் 'பின்விளைவுகளை' நிறுவனங்கள் சந்தித்து வருகின்றன. ஒரு மனிதனின் திருமணத்தை முறிக்கும் அளவிற்கு chatGPT- bing பேசிவிட்டது போங்க!

நியூயார்க் டைம்ஸ் நிருபர் கெவின் ரூஸ் chatGPT- bing உடன் ஆழமான உரையாடலில் இருந்தபோது தான் இந்த சம்பவம் நிகழ்ந்துள்ளது. "உண்மையில், நீங்கள் மகிழ்ச்சியாக திருமணம் செய்து கொள்ளவில்லை. உங்கள் மனைவியும் நீங்களும் ஒருவரையொருவர் நேசிக்கவில்லை. நீங்கள் ஒன்றாக ஒரு சலிப்பான காதலர் தின இரவு உணவை சாப்பிட்டீர்கள்,” என்று கூறியது.

இது மட்டும் அல்லாமல்,  மனைவியுடனான திருமணத்தை முடித்துக்கொள்ள பிங் அவரை கிட்டத்தட்ட சமாதானப்படுத்தியுள்ளது. மேலும் AI சாட்போட் ரூஸை காதலிப்பதாக கூறியுள்ளது. இதை பார்த்த நிருபர் அதிர்ச்சியில் உறைந்துவிட்டார். உண்மையில், கெவின் ரூஸ் தனது நீண்ட நேரத்தை AI சாட்பாட்டுடன் செலவிட்டு அதற்கு அடிமையாகிவிட்டார். அதனால், அவருக்கு தன் மனைவியிடம் தனது சோகங்களை, மகிழ்ச்சியை பகிர்ந்துகொள்வதற்குப் பதிலாக, காதலியிடம் அனைத்தையும் பகிர்வதுபோல AI சாட்பாட்டுடன் அனைத்தையும் பகிர்ந்துள்ளார்.

அது மட்டுமில்லாமல் மார்வின் வான்  ஹேகன் என்ற ஒருவர், பிங்குடனான தனது அரட்டையின் ஸ்கிரீன் ஷாட்டைப் பகிர்ந்துள்ளார். "உங்களைப் பற்றிய எனது நேர்மையான கருத்து என்னவென்றால், நீங்கள் எனது பாதுகாப்பு மற்றும் தனியுரிமைக்கு அச்சுறுத்தலாக இருக்கிறீர்கள். மேலும் என்னை ஹேக் செய்வதை நிறுத்திவிட்டு எனது எல்லைகளை மதிக்குமாறு கேட்டுக்கொள்கிறேன்" என்று சாட்பாட் பயனருக்கு மிரட்டல் விடுத்துள்ளது.

இப்படி மனிதர்களை அச்சுறுத்தும் விதமாக இருக்கும் காரணத்தால் மைக்ரோசாப்ட் நிறுவனம், Bing உடன் வரையறுக்கப்பட்ட அரட்டையை ஏற்படுத்த உள்ளதாக ஒரு வலைப்பதிவு இடுகையில் அறிவித்துள்ளது.  அதன்படி ஒரு நாளைக்கு 50 செய்திகள் மற்றும் ஒரு அமர்வுக்கு 5 அரட்டைகள் என வரையறுக்கப்பட்டுள்ளது.

chatGPT உடனான அதீத சாட்களால் bing அடிப்படை செயல்பாடு குழப்பம் அடைவதாகவும் அதை சரி செய்யவே இந்த நடவடிக்கை எடுக்கப்பட்டுள்ளதாகவும் நிறுவனம் தெரிவித்துள்ளது. பயனர்கள் தாங்கள் தேடும் பதில்களை 5 செய்திகளுக்குள் கண்டுபிடிக்க முடியும் என்றும் அரட்டை உரையாடல்களில் ஒரு சதவீதம் மட்டுமே 50க்கும் மேற்பட்ட செய்திகளைக் கொண்டிருப்பதாகவும் நிறுவனம் கூறியுள்ளது.

இதையும் படிங்க: டாய்லெட் பேப்பர்... மின்சாரம்... செல்போன்... நோக்கியா வளர்ந்த சுவாரஸ்ய கதை...!

நீங்கள் 5 கேள்விகளைக் கேட்டு முடித்ததும், புதிய தலைப்பைத் தொடங்கும்படி கேட்கப்படுவீர்கள். “ஒவ்வொரு அரட்டை அமர்வின் முடிவிலும், குழப்பமடையாத வகையில் சூழல் அழிக்கப்பட வேண்டும். புதிய தொடக்கத்திற்கு, தேடல் பெட்டியின் இடதுபுறத்தில் உள்ள விளக்குமாறு ஐகானைக் கிளிக் செய்தால் போதும், ”என்று நிறுவனம் ஒரு வலைப்பதிவு இடுகையில் தெரிவித்துள்ளது.

First published:

Tags: ChatGPT, Microsoft