Archive for the ‘படக் கதை’ Category

செயற்கை நுண்ணறிவு (Artificial Intelligence)  மூலம் இந்துமதத்திற்கு உண்டாகும் பாதிப்புகள் (2)

பிப்ரவரி 8, 2024

செயற்கை நுண்ணறிவு (Artificial Intelligence)  மூலம் இந்துமதத்திற்கு உண்டாகும் பாதிப்புகள் (2)

oppo_16

சரித்திரத்தில் சரித்திரத் தன்மையை அதிகமாக்குவது எப்படி?: இந்தியா / பாரதத்தின் சரித்திரம் 5000 / 10,000 வருடங்கள் தொன்மையானது, ஆனால், வரிஉருவம், எழுத்து, கல்வெட்டு முதலிய ஆதாரங்களை வைத்து அசோகன் காலத்திருந்து தான் சரித்திரம் ஏற்றுக் கொள்ளப் படுகிறது.

  1. சரித்திரத்திலிருந்து பொய்மை-கட்டுக்கதை உருவாக்குவது (Mythologization),
  2. கட்டுக்கதை நீக்குவது (Demythologization),
  3. மறுபடியும் பொய்மை-கட்டுக்கதை உருவாக்குவது (Remythologization)

என்றுதான், இப்பொழுது நடந்து கொண்டிருக்கின்றன. செயற்கை நுண்ணறிவு (AI) மூலம் அளவுக்கு அதிகமான உற்சாகம், பக்தி என்ற ரீதியில், அத்தகைய AI-வல்லுனர்கள் ஹிந்து கடவுளர்களை பலவாறு சித்தரிக்க ஆரம்பித்து விட்டனர். ராஜா ரவிவர்மா, மிகவும் ஆராய்ந்து, பற்பல பண்டிதர்களுடன் கலந்து உரையாடி, தீர்மானித்து, இதிகாச-புராண, காவிய ஓவியங்களை உருவாக்கினார். அவை உண்மையான தோற்றங்கள்-உருவங்கள் ஏன் புகைப் படங்கள் என்று கூட ஒப்புக் கொண்டு உபயோகிக்கும் நிலைக்கு வந்துள்ளது. ஆனால் இந்த AI-சித்திரங்கள் அப்படியில்லை, ஏற்றுக்கொள்ளப் பட்டுள்ள இதிகாச-புராண ஹிந்து கடவுளர்களை மனிதர்களாக மாற்றும் வேலைகளில் இறங்கியுள்ளர்.

oppo_16

இக்கால இளைஞர்கள் மூலங்களைப் படிக்காமல் திரிபு விளக்கம் கொடுப்பது: பார்ப்பதற்கு நன்றாக இருந்தாலும், நாளடைவில் அவை அதிகமாக ஏற்றுக் கொள்ளப் பட்டால், அவையே ஆதாரப்பூர்வமான உருவங்கள் என்ற நிலைக்கு வந்து விட்டால், அப்பொழுது தான், அதனுடைய பாதிப்பு முழுமையாக தெரியவரும். ஆனால், அந்த அளவுக்கு அவர்களை கட்டுப்பாடில்லாமல் வைத்திருக்க வேண்டியதில்லை. ஏதோ கொலு பொம்மைகளை உருவாக்குகிறார்கள் என்ற நிலையில் வைத்து விட்டால், அவர்களுக்கே தங்களுடைய நிலை வெளிப்பட்டு விடும். வியாபாரம் அத்துடன் நின்றுவிடும். இது, இன்று அதிகப் பிரசிங்கித் தனமாக, சில புதிய-இளைஞர்கள் இதிகாச-புராணங்களுக்கு, குறிப்பாக சாஸ்திரங்களுக்கு விளக்கம் கொடுக்கும் போக்கையும் கட்டுப் படுத்தலாம். மூலங்களை படிக்காமல் வியாக்கியானம், விளக்கம் கொடுப்பதினால் தான், இந்த 21ம் நூற்றாண்டுகளிலும், இத்தகைய பிரச்சினைகள் உருவாகின்றன. இதனால், இந்து விரோதிகளுக்குத் தான் சாதகமாக அத்தகைய திரிபு வாதங்கள் சென்றடைகின்றன. ஏற்கெனவே அக்னிஹோத்ரி போன்றவர்களின் விளக்கங்களை கவனித்திருக்கலாம். இப்பொழுது மற்றவர்களின் விளக்கங்களும் சேர்கின்றன. இனி இந்த AI-சித்திரங்களும் சேர்ந்து விடும்.

oppo_16

கார்ட்டூன், மார்பிங் முதலியன: மார்பிங் (morphig)[1] என்பது, ஒரு உண்மையான தனிநபரின் புகைப்படத்தை, வேறுவிதமாக மாற்றி, சித்தரித்துக் காட்டும் முறை. பொதுவாக பாதிப்பு ஏற்படும் முறையில் அவ்வாறு செய்யப் படுகிறது. மோஷன் பிக்சர்ஸ் மற்றும் அனிமேஷன்களில் மார்பிங் என்பது ஒரு சிறப்பு விளைவு ஆகும், இது தடையற்ற மாற்றம் மூலம் ஒரு படத்தை அல்லது வடிவத்தை மற்றொன்றாக மாற்றுகிறது (அல்லது உருமாற்றுகிறது). பாரம்பரியமாக அத்தகைய சித்தரிப்பு திரைப்படத்தில் கலைக்கும் நுட்பங்கள் மூலம் அடையப்படும். 1990 களின் முற்பகுதியில் இருந்து, இது மிகவும் யதார்த்தமான மாற்றங்களை உருவாக்க கணினி மென்பொருளால் மாற்றப்பட்டது. ஒலிப்பதிவுகளுக்கு இதேபோன்ற முறை பயன்படுத்தப்படுகிறது, எடுத்துக்காட்டாக, குரல்கள் அல்லது குரல் வரிகளை மாற்றுவதன் மூலம், இவை உருவாக்கப் படுகின்றன. சந்தமாமா / அம்புலிமாமாவில் 60-70 ஆண்டுகளுக்கு முன்பே தத்ரூபமான சித்திரங்கள் வரையப் பட்டன, மக்கள் ஏற்ருக் கொண்டனர். பிறகு, கார்ட்டூன் படிப்பது, திரைப்படமாகப் பார்ப்பது என்ற நிலையிலும் எந்த பிரச்சினையும் இல்லை. இவையெல்லாம் குழந்தைகள் சிறுவர்கள் பார்ப்பது என்றே கருதப் பட்டது.

oppo_16

இப்பொழுது, AI மூலம், இது பிரச்சினையாகி இருப்பது: இப்பொழுது, AI மூலம், இது சுலபமாகி விட்டது. மிகவும் ஆழமான முறையில் தத்ரூபமாக போலியி உருவாக்குவது – டீப்-பேகிங் (Deepfake/ deepfaking) என்ற முறை உருவாகியுள்ளது. இதனால் உருவாக்கப் படும் வீடியோக்கள் உண்மையான வீடியோ போல்வே இருக்கின்றன. போரென்சிக்-ரசாயன கூடத்திலேயே கண்டுபிடிக்க கடினமாக உள்ள நிலையில் அத்தகைய போலிகள் உருவாக்கப் படுகின்றன. டீப்ஃபேக்ஸ் (“ஆழமான கற்றல்” மற்றும் “போலி” ஆகியவற்றின் போர்ட்மேண்டோ) செயற்கை ஊடகம் ஒரு நபரின் உருவத்தை நம்பத்தகுந்த வகையில் மற்றொருவருடன், மாற்றுவதற்காக டிஜிட்டல் முறையில் கையாளப்படுகிறது[2]. டீப்ஃபேக்குகள் என்பது ஆழமான உருவாக்கும் முறைகள் மூலம் முகத் தோற்றத்தைக் கையாளுதல் ஆகும். போலியான உள்ளடக்கத்தை உருவாக்கும் செயல் புதிதல்ல என்றாலும், டீப்ஃபேக்குகள் இயந்திர கற்றல் மற்றும் செயற்கை நுண்ணறிவு ஆகியவற்றிலிருந்து சக்திவாய்ந்த நுட்பங்களைப் பயன்படுத்தி, காட்சி மற்றும் ஆடியோ உள்ளடக்கத்தைக் கையாள அல்லது உருவாக்குகின்றன. டீப்ஃபேக்குகளை உருவாக்கப் பயன்படுத்தப்படும் கற்றல் முறைகள் ஆழமான கற்றலை அடிப்படையாகக் கொண்டவை மற்றும் தன்னியக்க குறியாக்கிகள், அல்லது ஜெனரேட்டிவ் அட்வர்சரியல் நெட்வொர்க்குகள் (GANs) போன்ற உருவாக்கும் நரம்பியல் நெட்வொர்க் கட்டமைப்புகளைப் பயிற்றுவிப்பதை உள்ளடக்கியது. இதையொட்டி பட தடயவியல் துறையானது கையாளப்பட்ட படங்களைக் கண்டறியும் நுட்பங்களை உருவாக்குகிறது.

oppo_16

இந்துவிரோத AI முறை எதிர்கொள்ள வேண்டிய அவசியம்: கிருஷ்ணர்-பலராமர் ஒரு மாட்டைக் கொல்வது, ராதாவுடன் ஸ்கூட்டரில் செல்வது என்றெல்லாம் படங்கள் உண்டாக்கப் பட்டு, இணைதளங்களில் உலா வந்து கொண்டிருக்கின்றன. இதற்கு ஜைன-பௌத்த இடைசெருகல் புராணங்களையும் ஆதாரமாகக் காட்டப் படுகின்றன. ஆக, இவையெல்லாம் இந்துவிரோத சக்திகளுக்கு அல்வா கொடுத்த மாதிரி உபயோகப் படுகின்றன. இனி, அத்தகையோரும் AI மூலம் தாக்குதல்களை அதிகமாக்குவர். அதற்கும், இவ்வேலை தெரிந்த இந்துக்களே காசுக்காக வேலை செய்து, பிழைப்பர். “கொன்றால் பாவம் தின்றால் போச்சு / கொன்றால் போகும் தின்றால் பாவம்” என்றெல்லாம் தத்துவமும் பேசலாம். பெண்கடவுளரை ஆபாசமாகச் சித்தரிக்கலாம். சிலைகளை ஆதாரமாகக் காட்டலாம். ஆக, இந்துவிரோதிகளின் எதிர்ப்புகள் அதிகமாகும், அதனை எதிர்கொண்டு, மறுக்க வேண்டிய நிலை உள்ளது.

oppo_16
  1. செயற்கை நுண்ணறிவு முறை வைத்து படம் போட்டுத் தள்ளுகிறார்களே, அவர்களால் ஏன் சிந்துசமவெளி எழுத்துருக்களை படிக்க முயல்வதில்லை?
  • இந்திய சரித்திரத்தில் பல காலக்கணக்கீடு குழப்பங்கள் உள்ளனவே, அவற்றை தங்களது கணினி விஞ்ஞானம், செயற்கை நுண்ணறிவு வைத்து ஏன் தீர்ப்பதில்லை?
  • இராமாயணம் பாடி, கதாகாலக்ஷேபத்தில் சந்தோஷித்து காசு சம்பதிக்கிறார்களே, அதன் காலக் கணக்கியல் பிர்ச்சினையை நீக்கலாமே?
  • அத்வைதம்-துவைதம் என்று சர்ச்சையிட்டு-போரிட்டுக் கொண்டிருக்கிறார்களே, அந்த காலக்கிரமங்களையும் சரிசெய்யலாமே?
  • கடவுளர்களை மனிதனாக்கும் முயற்சியில், அவர்கள் மனிததன்மை இழந்த அழகான கார்ட்டூன் பாத்திரங்களாக மாற்றி விடுகின்றனர்.
  • எதிர்-சித்தாந்தங்களை உடைக்கும் கருவியாக செயல்பட வேண்டுமே தவிர, அவர்களுக்கு தீனி போடும் நிலையில் இருக்கக் கூடாது.
  • பாரத சரித்திரத்தில் இன்றைக்கு முக்கியமானது, இருப்பதை மேன்மேலும் புராணப்படுத்துவது (mythologization) அல்ல.
  • ஆனால், அப்புராணங்களில் உள்ள விஞ்ஞானம் மற்றும் தொழிற்நுட்பத்தை மீட்டெடுப்பதும் மக்களுக்கு சேர்ப்பதும் ஆகும்.
  • இருக்கும் சரித்திர பிரச்சின்னைகளை தீர்ப்பதில் கவனம் கொண்டால், புதிய வரலாற்றுப் பிரச்சினைகளை உருவாக்கத்தேவையில்லை!
  1. செயற்கை நுண்ணறிவு (Artificial Intelligence) போலி-விஞ்ஞானம் (pseudo-science), ரசவாதம் (alchemy) போன்று ஆகி விடக்கூடாது.

© வேதபிரகாஷ்

16-01-2024

[08-02-2024ல் பதிவு செய்யப் பட்டது]

இங்கிருந்து அந்த AI-படங்கள் உபயோகப் படுத்தப் பட்டுள்ளன – https://www.facebook.com/profile.php?id=100059335462118

oppo_16

[1] Morphing is a special effect in motion pictures and animations that changes (or morphs) one image or shape into another through a seamless transition. Traditionally such a depiction would be achieved through dissolving techniques on film. Since the early 1990s, this has been replaced by computer software to create more realistic transitions. A similar method is applied to audio recordings, for example, by changing voices or vocal lines.

[2] Deepfakes (portmanteau of “deep learning” and “fake”) are synthetic media[2] that have been digitally manipulated to replace one person’s likeness convincingly with that of another. Deepfakes are the manipulation of facial appearance through deep generative methods. While the act of creating fake content is not new, deepfakes leverage powerful techniques from machine learning and artificial intelligence to manipulate or generate visual and audio content that can more easily deceive. The main machine learning methods used to create deepfakes are based on deep learning and involve training generative neural network architectures, such as autoencoders, or generative adversarial networks (GANs). In turn the field of image forensics develops techniques to detect manipulated images