AI 'තර්කනය' යනු කුමක්ද සහ එය 'නව ප්රත්යන්තය' ලෙස සැලකෙන්නේ ඇයි?
කෘත්රිම බුද්ධි (AI) තර්කනය යනු ChatGPT ගණයේ LLM කෘත්රිම බුද්ධි මාදිලි සිදුකරන පිළිතුරු සැපයීමට පමණක් සීමා නොවී, ගැටලුවක් පියවරෙන් පියවරට විශ්ලේෂණය කරමින් ('චින්තන දාමය' හෝ 'ආවර්ජනා කිරීම' වැනි ක්රම ඔස්සේ) සහ ක්රියා සැලසුම් කිරීම තුළින් 'චින්තනය' ප්රදර්ශනය කරන ආකෘති සමූහයක් (AI Models) විද්යාමාන කරයි. මෙය වචන පුරෝකථනය (word prediction - LLM) කිරීමට පමණක් සීමා වූ සාම්ප්රදායික ආකෘතිවලින් ඔබ්බට ගිය සංකල්පයකි.
මෙම සංකල්පය 'නව ප්රත්යන්තය ' ලෙස සැලකෙන්නේ එය කෘත්රිම බුද්ධි models අතිශය බුද්ධිමත්භාවය (superintelligence) කරා ළඟා වීමට ඇති මීළඟ ප්රධාන පියවර ලෙස සැලකෙන බැවිනි. එය මූලික chatbot ක්රියාකාරීත්වයන්ගෙන් ඔබ්බට ගොස්, මානවයාට සමාන සංජානන ක්රියාවලීන් (cognitive processes) කරා ගමන් කිරීමකි.
මෙම නව වෙනස්වීම මගින් කෘත්රිම බුද්ධි පද්ධතිවලට, මානවයෙකු මෙන්, තමන්ගේම පිළිතුරු නැවත විමර්ශනය කිරීමට, ආවර්ජනා කිරීමට සහ විවිධ විභව විසඳුම් අතරින් හොඳම පිළිතුර තෝරා ගැනීමට හැකියාව ලබාදීම අරමුණු කරයි.
කෘත්රිම බුද්ධිමය තර්කනය (AI reasoning) සඳහා සමාගම් බිලියන ගණනක් ආයෝජනය කරන්නේ ඇයි, සහ එයින් අපේක්ෂිත ප්රතිලාභය කුමක්ද?
මෙටා, ගූගල්, මයික්රෝසොෆ්ට්, ඕපන්-ඒඅයි, අයිබීඑම් වැනි සමාගම් කෘත්රිම බුද්ධිමය (AI) තර්කනය සඳහා බිලියන ගණනින් ආයෝජනය කරන්නේ, එය තරඟකාරීව සිටීමට සහ අනාගත වර්ධනය සඳහා තීරණාත්මක සාධකයක් බව ඔවුන් විශ්වාස කරන බැවිනි.
වඩාත් දක්ෂ, තර්කනය කිරීමේ හැකියාව ඇති AI මාදිලි හේතුවෙන්, පරිගණක භාවිතය (compute) සඳහා වන ඉල්ලුම අධික ලෙස ඉහළ යනු ඇති බවට ඔවුන් විශ්වාස කරනවා.. මේ ක්රියාවලි සඳහා අවශ්ය වන පරිගණක ගණන බලය (compute power) 100 ගුණයකින් පමණ වැඩි විය හැකි බවට ඔවුන් පුරෝකථනය කරයි.
සුපිරි බුද්ධිය (superintelligence) ජනනය වන තාක්ෂණය නිර්මාණය කරගැනීම මෙම ආයෝජනයේ තවත් අපේක්ෂිත ප්රථිපලයක්. සුපිරි බුද්ධිමය අවස්ථාවට පත්වන තාක්ෂණය නිර්මාණය කරගන්නා සමාගම තාක්ෂණ ලෝකයේ හිනිපෙත්තට නගින සමාගම ලෙස ප්රකටවනු ඇති අතර ආදායම් හා ලාභ සිතගත නොහැකි ලෙස ඉහල යනු ඇතැයි ඔවුන් විශ්වාස කරනවා. එමඟින් නව භාවිත අවස්ථා (new use cases) රැසක් බිහිවීම හා ව්යාපාර මෙහෙයුම්වල විප්ලවීය වෙනසක් ඇතිවීම අපේක්ෂා කරනවා.
මෙම ආයෝජන ස්කේලිං ලෝ (Scaling Law) සංකල්පයට අනුව සිදුකෙරෙනවා. ස්කේලිං ලෝ (Scaling Law) යනු කෘත්රිම බුද්ධි (AI) මාදිලියක ක්රියාකාරීත්වය (performance) එහි ප්රමාණය, පුහුණු කිරීමට යොදා ගන්නා දත්ත ප්රමාණය සහ පරිගණක බලය (compute) වැඩි කරන විට එයට අනුරූපව වැඩිවන බවට පුරෝකථනය කරන රීතියකි.
සරලව කිවහොත්, මෙම නීතියට අනුව, ඔබ AI මාදිලියක් විශාල කරන විට (එනම්, එහි පරාමිති ගණන වැඩි කරන විට) සහ පුහුණු දත්ත ප්රමාණය වැඩි කරන විට, එහි ක්රියාකාරීත්වය ද පුරෝකථනය කළ හැකි රටාවකට අනුව වැඩි දියුණු වේ.
කෘත්රිම බුද්ධිය (AI) සම්බන්ධයෙන්, "The Illusion of Thinking" "චින්තනයේ මිත්යාව" යනු කුමක්ද? එය කෘත්රිම බුද්ධිමය (AI) තර්කන සංකල්පයට අභියෝග කරන්නේ කෙසේද?
Illusion of Thinking හෙවත් 'සිතීමේ මායාව' යනු ඇපල් සමාගමේ පර්යේෂකයින් විසින් ඉස්මතුකරමින්, ප්රචලිත කරන සංකල්පයකි. මෙයින් අදහස් වන්නේ, කෘත්රිම බුද්ධිය (AI) සිතනවා යැයි අපට පෙනුනත්, ඇත්ත වශයෙන්ම සිදුවන්නේ විශාල පරිමාණයෙන් රටා ගැළපීම (pattern matching) හෝ මතක තබා ගැනීම (memorisation) පමණක් බවයි.
මෙම මාදිලිවලට පුහුණු දත්තවලින් හුරු පුරුදු ගැටලු ඉදිරිපත් කළ විට ඒවා හොඳින් ක්රියා කරයි. නමුත්, නව, සංකීර්ණ හෝ පරීක්ෂා නොකළ කාර්යයන් හමුවේ ඒවායේ ක්රියාකාරීත්වය බිඳ වැටේ. මෙය, සැබෑ අවබෝධයක් හෝ සාමාන්යකරණයක් (generalisation) ඔවුන් සතු නොවන බව ජනප්රිය කෘත්රිම බුද්ධි මාදිලි අලලා සිදුකරන ලද නිරීක්ෂණ වලින් පසුව පර්යේෂකයින්ට පෙනීගොස් තිබෙනවා.
උදාහරණයක් ලෙස 'ටවර්ස් ඔෆ් හැනෝයි' යනු ප්රසිද්ධ ගණිතමය ප්රහේලිකාවක් යොදාගෙන එම ගැටලුවට කෘත්රිම බුද්ධි මාදිලි විසඳුම් සොයන සැටි නිරීක්ෂණයේදී මෙම තර්කන මායාව පැහැදිලිව පෙනෙන්නට තිබෙන බව පර්යේෂකයින් තහවුරු කරගෙන තිබෙනවා. AI මාදිලියකට තැටි කිහිපයක් සඳහා (උදා: තැටි 3 හෝ 4) මෙම ප්රහේලිකාව පහසුවෙන් විසඳිය හැකි වුවත්, තැටි ගණන වැඩි වූ විට (උදා: තැටි 100ක්) මාදිලියේ කාර්යක්ෂමතාව බිඳවැටී අතරමන් වන ආකාරය පෙනීගොස් තිබෙනවා.
එසේ සිදුවන්නේ AI මාදිලිය, ටවර්ස් ඔෆ් හැනෝයි අභියෝගය විසඳීම සඳහා සැබෑ තර්කණය භාවිතා කරනවා වෙනුවට තමන්ට කලින් ලබාදී ඇති දත්තවල රටා අනුව පිලිතුර ලබාදීමයි. තැටි ගණන විශාලවන විට සාමාන්ය මනුෂයයින්ට එය විසඳීම අපහසු නිසා AI මාදිලිවලට ඒ සඳහා පැරණි දත්ත නෑ. ඒ නිසා විසඳා ගැනීමට හැකියාවක් නෑ.
එහෙත් සැබෑ තර්කණ හැකියාවක් ඇති කෘත්රිම බුද්ධි මාදිලියකට අධික වේගයෙන් සිදුකල හැකි ගණනය කිරීම් හා තර්කණ හැකියාව මත තැටි දහස් ගණනක අබියෝගයක් වුවත් විසඳිය හැකියි.
නවතම පර්යේෂණ අනුව, වර්තමාන කෘත්රිම බුද්ධි (AI) තර්කන මාදිලිවල ප්රධාන සීමාවන් මොනවාද?
නවතම පර්යේෂණ අනුව, වර්තමාන කෘත්රිම බුද්ධි (AI) තර්කන මාදිලිවල ප්රධාන සීමාවන් කිහිපයක් හඳුනාගෙන ඇත. මෙම සීමාවන්, මාදිලිවල ක්රියාකාරීත්වය සහ හැකියාවන් පිළිබඳ වඩාත් යථාර්ථවාදී අවබෝධයක් ලබා දෙනවා.
1. සැබෑ අවබෝධය වෙනුවට රටා ගැළපීම (Pattern Matching over Genuine Understanding): බොහෝ AI මාදිලි, විශේෂයෙන්ම විශාල භාෂා මාදිලි (Large Language Models), සැබෑ ලෝකය පිළිබඳ ගැඹුරු අවබෝධයක් හෝ හේතුඵල සම්බන්ධතා (causal relationships) පිළිබඳ දැනුමක් නොමැතිව, පුහුණු දත්තවල ඇති රටා මත පදනම්ව පිළිතුරු ජනනය කරයි. මෙය "සිතීමේ මායාව" (Illusion of Thinking) ලෙස හැඳින්වේ. මාදිලියක් සිතනවා යැයි පෙනුනත්, එය කරන්නේ පුහුණු දත්තවල ඇති තොරතුරු අනුකරණය කිරීම පමණි.
2. සාමාන්යකරණයේ දුර්වලතා (Weaknesses in Generalization): මෙම මාදිලි, පුහුණු දත්තවලට සමාන හෝ ඊට සමීප ගැටලුවලදී හොඳින් ක්රියා කරයි. නමුත්, ඒවාට නුහුරු, සංකීර්ණ හෝ පුහුණු දත්තවල නොතිබූ නව ගැටලුවකට මුහුණ දීමට සිදුවූ විට ඒවායේ කාර්ය සාධනය බිඳ වැටේ. 'ටවර්ස් ඔෆ් හැනෝයි' වැනි ප්රහේලිකාවන්හිදී, කුඩා පියවර ගණනක් සඳහා සාර්ථක වුවත්, සංකීර්ණත්වය වැඩි වූ විට ඒවා අසාර්ථක වන්නේ මේ නිසාය.
3. විශ්වාසනීයත්වයේ සහ විස්තර කළ හැකි බවේ අඩුව (Lack of Reliability and Explainability): සමහර අවස්ථාවලදී AI මාදිලි, වැරදි හෝ පදනම් විරහිත තොරතුරු (hallucinations) ජනනය කරයි. මෙම වැරදි සිදුවන්නේ ඇයිද යන්න පැහැදිලි කිරීමට හෝ ඒවායේ තර්කන ක්රියාවලිය විස්තර කිරීමට මාදිලිවලට හැකියාවක් නැත. මෙය මාදිලිවල විශ්වාසනීයත්වයට සහ වෘත්තීය භාවිතයට බාධාවක් වේ.
4. පුහුණු දත්ත මත දැඩි ලෙස යැපීම (Heavy Dependency on Training Data): AI මාදිලිවල හැකියාවන් තීරණය වන්නේ ඒවා පුහුණු කිරීමට භාවිතා කරන දත්තවල ගුණාත්මකභාවය සහ ප්රමාණය මතය. දත්තවල පවතින පක්ෂග්රාහීත්වය (bias) හෝ සීමාවන්, මාදිලියේ ප්රතිඵලවලට සෘජුවම බලපායි. එමෙන්ම, මාදිලියකට පුහුණු දත්තවල නොමැති නව දැනුමක් තර්කනය මගින් උත්පාදනය කිරීමේ හැකියාව සීමිතය. මෙයින් අදහස් වන්නේ, අද ජනප්රිය AI මෘදුකාංග පුළුල්, අනුවර්තනශීලී බුද්ධියක් වර්ධනය කර ගැනීමට අසමත් බවයි.
වර්තමාන විශාල භාෂා මාදිලිවල (LLM) හැකියාවන් සහ සැබෑ ලෝක ව්යාපාරික යෙදුම්වල අවශ්යතා අතර විශාල පරතරයක් පවතින බව Salesforce ආයතනය මෙය 'jagged intelligence' හෙවත් 'කඩතොලු ඇති බුද්ධිය' ලෙස හඳුන්වනවා. මෙය තහවුරු කරන Anthropic සහ LEAP labs වැනි ආයතනවල පර්යේෂණ මගින් පෙන්වා දෙන්නේ, වර්තමාන විශාල භාෂා මාදිලිවල (LLM) හැකියාවන් සහ සැබෑ ලෝක ව්යාපාරික යෙදුම්වල අවශ්යතා අතර විශාල පරතරයක් පවතින බවයි.
'Jagged Intelligence' (කඩතොලු ඇති බුද්ධිය) යන සංකල්පය, යම් පද්ධතියක හෝ ජීවියෙකුගේ බුද්ධිය යම් යම් ක්ෂේත්රවල අතිශයින් දියුණු නමුත් වෙනත් ක්ෂේත්රවල සාමාන්ය මට්ටමේ හෝ දුර්වල මට්ටමේ පවතින තත්ත්වය විස්තර කරයි. මෙය මිනිස් බුද්ධිය තුළද දක්නට ලැබෙන අතර, එක් ක්ෂේත්රයක විශිෂ්ට දක්ෂතා ඇති අයෙකුට තවත් ක්ෂේත්රයකදී සාමාන්ය මට්ටමේ දැනුමක් හෝ හැකියාවක් තිබිය හැකිය.
උදාහරණයක් ලෙස, Go වැනි සංකීර්ණ ක්රීඩාවක් ජයගැනීමට පුහුණු කළ AI මාදිලියකට, සාමාන්ය සංවාදයක් පවත්වාගෙන යාම හෝ නවීන ලෝකයේ ගැටලුවක් විසඳීම වැනි සාමාන්ය බුද්ධිය අවශ්ය වන කාර්යයන් ඉටු කිරීමේ හැකියාවක් නොමැත.
Comments
Post a Comment