‘ಚಾಟ್ಜಿಪಿಟಿ’ಯಂಥ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ತಂತ್ರಜ್ಞಾನಗಳು ಜಗತ್ತಿನಾದ್ಯಂತ ಹೊಸ ಅಚ್ಚರಿ, ಹೊಸ ಅವಕಾಶಗಳನ್ನು ಸೃಷ್ಟಿಸುವ ಜೊತೆಜೊತೆಗೇ, ಮಾನವ ಕುಲಕ್ಕೇ ಆಪತ್ತು ತರುವ ತಂತ್ರಜ್ಞಾನವಾಗಿಯೂ ಹೊರಹೊಮ್ಮುತ್ತಿದೆ ಎಂದು ಜಾಗತಿಕ ಮಟ್ಟದಲ್ಲಿ ದೊಡ್ಡದೊಂದು ಎಚ್ಚರಿಕೆಯ ಗಂಟೆಯನ್ನು ಮೊಳಗಿಸಲಾಗಿದೆ
ಲಂಡನ್: ‘ಚಾಟ್ಜಿಪಿಟಿ’ಯಂಥ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ತಂತ್ರಜ್ಞಾನಗಳು ಜಗತ್ತಿನಾದ್ಯಂತ ಹೊಸ ಅಚ್ಚರಿ, ಹೊಸ ಅವಕಾಶಗಳನ್ನು ಸೃಷ್ಟಿಸುವ ಜೊತೆಜೊತೆಗೇ, ಮಾನವ ಕುಲಕ್ಕೇ ಆಪತ್ತು ತರುವ ತಂತ್ರಜ್ಞಾನವಾಗಿಯೂ ಹೊರಹೊಮ್ಮುತ್ತಿದೆ ಎಂದು ಜಾಗತಿಕ ಮಟ್ಟದಲ್ಲಿ ದೊಡ್ಡದೊಂದು ಎಚ್ಚರಿಕೆಯ ಗಂಟೆಯನ್ನು ಮೊಳಗಿಸಲಾಗಿದೆ. ಹೀಗಾಗಿಯೇ, ‘ತಕ್ಷಣದಿಂದ ಜಾರಿಗೆ ಬರುವಂತೆ ಕನಿಷ್ಠ ಮುಂದಿನ 6 ತಿಂಗಳ ಅವಧಿಗೆ ಇಂಥ ತಂತ್ರಜ್ಞಾನ ಅಭಿವೃದ್ಧಿಗೆ ಎಲ್ಲಾ ಕಂಪನಿಗಳು ತಡೆ ನೀಡಬೇಕು’ ಎಂದು ಸ್ವತಃ ಇಂಥ ತಂತ್ರಜ್ಞಾನ ಬಳಕೆಯಲ್ಲಿ ಮುಂಚೂಣಿಯಲ್ಲಿರುವ ವಿಶ್ವದ ನಂ.1 ಶ್ರೀಮಂತ, ಟೆಸ್ಲಾ ಸ್ವಯಂಚಾಲಿತ ಕಾರು ಕಂಪನಿಯ ಮಾಲೀಕ ಎಲಾನ್ ಮಸ್ಕ್, ಆ್ಯಪಲ್ನ ಸಹಸಂಸ್ಥಾಪಕ ಸ್ಟೀವ್ ವೋಜಿಯೇಕ್ ಸೇರಿದಂತೆ 1100ಕ್ಕೂ ಹೆಚ್ಚು ಗಣ್ಯರು ಕರೆ ನೀಡಿದ್ದಾರೆ.
ಈಗಾಗಲೇ ಅಭಿವೃದ್ಧಿಪಡಿಸಿರುವ ಈ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆ ಮತ್ತು ಮುಂದೆ ಅಭಿವೃದ್ಧಿಪಡಿಸಲಿರುವ ಸುಧಾರಿತ ವ್ಯವಸ್ಥೆಗಳು ಸಮಾಜ ಮತ್ತು ಮಾನವೀಯತೆ ಮೇಲೆ ಎಸಗಬಹುದಾದ ಗಂಭೀರ ಪರಿಣಾಮಗಳನ್ನು ಮನಗಂಡು ಗಣ್ಯರು ಇಂಥದ್ದೊಂದು ಕರೆ ನೀಡಿದ್ದಾರೆ. ಫಚರ್ ಆಫ್ ಲೈಫ್ ಇನ್ಸ್ಟಿಟ್ಯೂಟ್ ಸಿದ್ಧಪಡಿಸಿರುವ ಬಹಿರಂಗ ಪತ್ರಕ್ಕೆ 1100ಕ್ಕೂ ತಂತ್ರಜ್ಞಾನ ಸೇರಿದಂತೆ ವಿವಿಧ ವಲಯಗಳ ಜಾಗತಿಕ ಗಣ್ಯರು ಸಹಿಹಾಕಿದ್ದಾರೆ.
undefined
ಓಪನ್ ಎಐ ಸಂಸ್ಥೆಯು ತನ್ನ ಚಾಟ್ಜಿಪಿಯ ಹೊಸ ಆವತ್ತಿಯಾದ ಜಿಪಿಟಿ-4 ಬಿಡುಗಡೆ ಮಾಡಿರುವ ಹೊತ್ತಿನಲ್ಲೇ ಈ ಪತ್ರ ಬಿಡುಗಡೆಯಾಗಿದೆ. ಈ ಜಿಪಿಟಿ-4 ಬಳಕೆದಾರನ ಇಂಗಿತ ಅರ್ಥ ಮಾಡಿಕೊಳ್ಳುವ, ಅದಕ್ಕೆ ತಕ್ಕಂತೆ ಪ್ರತಿಕ್ರಿಯಿಸುವ, ಭಾಷೆಯನ್ನು ಅರ್ಥ ಮಾಡಿಕೊಳ್ಳುವ, ಅರ್ಥಪೂರ್ಣ ಹಾಗೂ ಸೃಜನಾತ್ಮಕ ಭಾಷೆಯನ್ನು ಸೃಷ್ಟಿಸುವ ಅದ್ಭುತ ಗುಣವನ್ನು ಹೊಂದಿದೆ. ಹೀಗೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ತಂತ್ರಜ್ಞಾನ ಅದ್ಭುತ ಕಲ್ಪನೆ ಮತ್ತು ಅಪಾಯ ಎರಡನ್ನೂ ನಮ್ಮ ಮುಂದಿಟ್ಟಿದೆ.
AI ಬಗ್ಗೆ ಇರಲಿ ಎಚ್ಚರ: ಚಾಟ್ಜಿಪಿಟಿಯಂತಹ ಆ್ಯಪ್ ಗೀಳಿಗೆ ಆತ್ಮಹತ್ಯೆ ಮಾಡಿಕೊಂಡ ವಿವಾಹಿತ..!
ಪತ್ರದಲ್ಲೇನಿದೆ?:
‘ಮಾನವನ ಬುದ್ಧಿಮತ್ತೆಗೆ ಸವಾಲು ಎಸೆಯುವಂತೆ ಅಭಿವೃದ್ಧಿಗೊಳ್ಳುತ್ತಿರುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಗಳು, ಭವಿಷ್ಯದಲ್ಲಿ ಸಮಾಜ ಮತ್ತು ಮಾನವೀಯತೆಗೆ ಗಂಭೀರ ಅಪಾಯಗಳನ್ನು ತಂದೊಡ್ಡಬಲ್ಲವು. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಯನ್ನು ನಾವು ಅತ್ಯಂತ ಜಾಗರೂಕವಾಗಿ ಅಭಿವೃದ್ಧಿಪಡಿಸಬೇಕು. ಆದರೆ ಕಳೆದ ಕೆಲವು ತಿಂಗಳಲ್ಲಿ ಕೆಲವು ಸಂಸ್ಥೆಗಳು ಪರಸ್ಪರ ಜಿದ್ದಾಜಿದ್ದಿಗೆ ಬಿದ್ದಂತೆ ಅತ್ಯಂತ ಶಕ್ತಿಶಾಲಿಯಾದ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆ ಅಭಿವೃದ್ಧಿಪಡಿಸಿ ಅದನ್ನು ಬಳಕೆಗೆ ಬಿಡುವ ಪ್ರಯತ್ನ ಮಾಡುತ್ತಿವೆ. ಇಂಥ ವ್ಯವಸ್ಥೆಗಳು ಅದನ್ನು ಸೃಷ್ಟಿಸಿದವರಿಗೂ ಅರಿಯಲು, ಊಹಿಸಲು ಅಥವಾ ವಿಶ್ವಾಸಾರ್ಹವಾಗಿ ನಿಯಂತ್ರಣಪಡಿಸಲು ಸಾಧ್ಯವಾಗದಂಥ ಹಂತಕ್ಕೆ ತಲುಪಿವೆ.’
‘ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆ ಸೃಷ್ಟಿಸಿದಾಗ ಅದೇನಾದರೂ ವ್ಯತಿರಿಕ್ತವಾಗಿ ವರ್ತಿಸಿದರೆ ಅದನ್ನು ಸರಿಪಡಿಸುವ ವಿಧಾನ ಹೇಗೆ ಎಂಬುದು ಇನ್ನೂ ಪತ್ತೆಯಾಗಿಲ್ಲ. ಹೀಗಾಗಿ ವ್ಯತಿರಿಕ್ತವಾಗಿ ವರ್ತಿಸಿದರೆ ಅದರಿಂದ ಆಗುವ ಅನಾಹುತ ಊಹಾತೀತ’ ಎಂದು ಪತ್ರದಲ್ಲಿ ಕಳವಳ ವ್ಯಕ್ತಪಡಿಸಲಾಗಿದೆ.
‘ಹೀಗಾಗಿ ಇಂಥ ವ್ಯವಸ್ಥೆಗಳು ತಪ್ಪು ಮಾಹಿತಿಯ ಪ್ರವಾಹವನ್ನೇ ಸೃಷ್ಟಿಸುವ ಮತ್ತು ಆಟೋಮೇಷನ್ ಮೂಲಕ ಉದ್ಯೋಗಿಗಳಿಗೆ ಪರ್ಯಾಯ ವ್ಯವಸ್ಥೆಯಾಗಿ ಹೊರಹೊಮ್ಮುವ ಗಂಭೀರ ಅಪಾಯಗಳನ್ನು ನಮ್ಮ ಮುಂದೊಡ್ಡಿದೆ. ಹೀಗಾಗಿ, ಒಂದು ಹಂತದಲ್ಲಿ ನಮ್ಮ ಸಂಖ್ಯೆಯನ್ನೇ ಮೀರಿಸುವ, ನಮ್ಮ ಬುದ್ಧಿಮತ್ತೆಯನ್ನೇ ಹಿಂದಿಕ್ಕುವ, ನಮ್ಮನ್ನೇ ಇತಿಹಾಸದ ಪುಟಗಳಿಗೆ ಸೇರಿಸುವ ಮತ್ತು ನಮ್ಮ ಅಸ್ತಿತ್ವಕ್ಕೆ ಧಕ್ಕೆ ತರುವಂಥ ವ್ಯವಸ್ಥೆಯನ್ನು ನಾವು ಅಭಿವೃದ್ಧಿಪಡಿಸಬೇಕೇ ಎಂಬ ಪ್ರಶ್ನೆಯನ್ನು ನಮಗೆ ನಾವು ಕೇಳಿಕೊಳ್ಳುವ ಸಮಯ ಎದುರಾಗಿದೆ’ ಎಂದು ಪತ್ರದಲ್ಲಿ ಹೇಳಲಾಗಿದೆ.
ಸರ್ಕಾರಗಳೇ ತಡೆ ಹೇರಲಿ:
ಜೊತೆಗೆ, ‘ಒಂದು ವೇಳೆ ಇಂಥ ವ್ಯವಸ್ಥೆ ಅಭಿವೃದ್ಧಿಪಡಿಸುತ್ತಿರುವ ಕಂಪನಿಗಳು ನಮ್ಮ ಮನವಿಗೆ ಓಗೊಡದೇ ಇದ್ದಲ್ಲಿ ಸರ್ಕಾರಗಳೇ ಮುಂದಾಗಿ ತಡೆ ಹೇರಬೇಕು. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಯ ಮೇಲೆ ನಿಗಾ, ನಿಯಂತ್ರಣ ಇರುವ ಹೊಸ ಮತ್ತು ಸಶಕ್ತವಾದ ನಿಯಂತ್ರಣಾ ಪ್ರಾಧಿಕಾರಗಳನ್ನು ರಚಿಸಬೇಕು’ ಎಂದು ಪತ್ರದಲ್ಲಿ ಒತ್ತಾಯಿಸಲಾಗಿದೆ.
ಕ್ಯಾಲಿಫೋರ್ನಿಯಾ ವಿವಿಯ ಸ್ಟುವರ್ಚ್ ರಸೆಲ್, ‘ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಯು ಸುಳ್ಳು ಮಾಹಿತಿಯೆಂಬ ಅಸ್ತ್ರದ ಮೂಲಕ ಪ್ರಜಾಪ್ರಭುತ್ವ ವ್ಯವಸ್ಥೆಗೆ ಧಕ್ಕೆ ತರುವ, ಮಾನವ ಕೌಶಲ್ಯವನ್ನು ಹೊಂದುವ ಮೂಲಕ ಉದ್ಯೋಗವನ್ನು ಕಸಿಯುವ ಮತ್ತು ಕೃತಿಚೌರ್ಯದ ಮೂಲಕ ಶಿಕ್ಷಣ ವ್ಯವಸ್ಥೆಯನ್ನು ಹಾಳುಗೆಡವುವ ಅಪಾಯವನ್ನು ನಮ್ಮ ಮುಂದೆ ನಿಲ್ಲಿಸಿದೆ. ಹೀಗಾಗಿ ಈಗ ಕೈಗೊಳ್ಳುವ ಸಣ್ಣ ಎಚ್ಚರಿಕೆಯು ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ದೊಡ್ಡ ಅಪಾಯವನ್ನು ದೂರ ತಳ್ಳಬಹುದು’ ಎಂದು ಹೇಳಿದ್ದಾರೆ.
ಬಹಿರಂಗ ಪತ್ರಕ್ಕೆ ಆಕ್ಷೇಪ:
ಆದರೆ ಪ್ರಿನ್ಸ್ಟನ್ ಕಂಪ್ಯೂಟರ್ ಸೈನ್ಸ್ ವಿಭಾಗದ ಪ್ರೊಫೆಸರ್ ಅರವಿಂದ್ ನಾರಾಯಣ ಮಾತ್ರ, ‘ಪತ್ರವು ಊಹಾಪೋಹದ, ಈಗಾಗಲೇ ಮನುಕುಲಕ್ಕೆ ಅಪಾಯ ತಂದೊಡ್ಡಿರುವ ಸಮಸ್ಯೆಗಳನ್ನು ಬದಿಗೊತ್ತಿ ಭವಿಷ್ಯದ ಅಪಾಯದ ಬಗ್ಗೆ ಕಳವಳ ವ್ಯಕ್ತಪಡಿಸಿರುವ ಸಂಗತಿ’ ಎಂದು ಬಣ್ಣಿಸಿದ್ದಾರೆ.
ಚಾಟ್ ಜಿಪಿಟಿ ಎಂದರೇನು?
ಚಾಟ್ ಜೆನೆರೇಟಿವ್ ಪ್ರೀ-ಟ್ರೈನ್ಡ್ ಟ್ರಾನ್ಸ್ಫಾರ್ಮರ್ ಎಂಬುದು (ಚಾಟ್ ಜಿಪಿಟಿ) ಇದರ ಪೂರ್ಣ ರೂಪ. ಇದನ್ನು ಅಮೆರಿಕದ ಓಪನ್ ಎಐ ಸಂಸ್ಥೆ ಅಭಿವೃದ್ಧಿಪಡಿಸಿ ಹೊಸ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆ. ಸದ್ಯದ ಮಟ್ಟಿಗೆ ಜಗತ್ತಿನ ಅತ್ಯಂತ ಪ್ರಭಾವಶಾಲಿ, ತೀಕ್ಷ್ಣ ಬುದ್ಧಿಯ ತಂತ್ರಜ್ಞಾನ ಎಂಬ ಹಿರಿಮೆಗೆ ಪಾತ್ರವಾಗಿದೆ. ಈ ಚಾಟ್ ಜಿಪಿಟಿಗೆ ನೀವು ಲಿಖಿತ ಅಥವಾ ಮೌಖಿಕವಾಗಿ ಯಾವುದೇ ಪ್ರಶ್ನೆ ಕೇಳಿದರೆ, ಅದು ಅಂತರ್ಜಾಲದಲ್ಲಿ ಲಭ್ಯವಿರುವ ಮಾಹಿತಿಗಳನ್ನೆಲ್ಲಾ ಸಂಗ್ರಹಿಸಿ ಅದನ್ನು ಮಾನವನ ಮೆದುಳಿನ ರೂಪದಲ್ಲಿ ಚಿಂತಿಸಿ, ಅದಕ್ಕೊಂದು ರೂಪ ಕೊಟ್ಟು ನಮ್ಮ ಮುಂದೆ ಇಡುತ್ತವೆ. ಯಾವುದೇ ವಿಷಯದ ಬಗ್ಗೆ ನಾವು ತಜ್ಞರೊಬ್ಬರನ್ನು ಮಾತನಾಡಿಸಿದರೆ ಏನು ಮಾಹಿತಿ ಪಡೆಯಬಹುದೋ ಅಂಥ ಮಾಹಿತಿಯನ್ನು ಚಾಟ್ಜಿಪಿಟಿ ನಮಗೆ ನೀಡುತ್ತದೆ. ಮಕ್ಕಳಿಗೆ ಕಥೆ ಹೇಳಬಲ್ಲದು, ಅಡುಗೆಯ ರೆಸಿಪಿ ಹೇಳಬಲ್ಲದು, ನಮ್ಮೊಂದಿಗೆ ಸಂವಹನ ನಡೆಸಬಲ್ಲದು. ಇದನ್ನು ವಿದ್ಯಾರ್ಥಿಗಳು ಶಾಲಾ-ಕಾಲೇಜುಗಳ ಹೋಂ ವರ್ಕ್ ಮಾಡಲು, ಪ್ರಬಂಧ ಬರೆಯಲು ಬಳಸಲು ಆರಂಭಿಸಿದ್ದಾರೆ. ಅಷ್ಟೇ ಏಕೆ ಪ್ರಯೋಗಾತ್ಮಕವಾಗಿ ಸ್ಪರ್ಧಾತ್ಮಕ ಪರೀಕ್ಷೆ ಬರೆಯಲು ಕೂಡಾ ಈ ವ್ಯವಸ್ಥೆಯನ್ನು ಯಶಸ್ವಿಯಾಗಿ ಬಳಸಿಕೊಳ್ಳಲಾಗಿದೆ. ಆ್ಯಪಲ್ನ ಸಿರಿ, ಅಮೆಜಾನ್ನ ಅಲೆಕ್ಸಾ ಮಾದರಿಯಲ್ಲೇ ಅತ್ಯಾಧುನಿಕ ವ್ಯವಸ್ಥೆ ಇದಾಗಿದೆ.
ಇಡ್ಲಿ, ದೋಸೆ, ವಡೆ ಮೇಲೆ ನಾಟಕ ಬರೆಸಿದ್ದ ನಾದೆಳ್ಲಾ!
ಚಾಟ್ ಜಿಪಿಟಿಯಲ್ಲಿ ಅಭಿವೃದ್ಧಿಯಲ್ಲಿ ಅಮೆರಿಕದ ಮೈಕ್ರೊಸಾಫ್ಟ್ ಸಂಸ್ಥೆ ಕೂಡಾ ಪಾಲು ಹೊಂದಿದೆ. ಇತ್ತೀಚೆಗೆ ಮೈಕ್ರೊಸಾಫ್ಟ್ ಅಧ್ಯಕ್ಷ ಸತ್ಯ ನಾದೆಳ್ಲಾ ಬೆಂಗಳೂರಿಗೆ ಬಂದಿದ್ದಾಗ ದಕ್ಷಿಣ ಭಾರತದ ಪ್ರಮುಖ ಮುಂಜಾನೆ ಆಹಾರದ ಬಗ್ಗೆ ಚಾಟ್ಜಿಪಿಟಿಯನ್ನು ಪ್ರಶ್ನಿಸಿದಾಗ ಅದು ಇಡ್ಲಿ, ವಡೆ, ದೋಸೆ, ಬಿರಿಯಾನಿ ಎಂದು ಉತ್ತರಿಸಿತ್ತು. ಬಳಿಕ ಅವರು ಇಡ್ಲಿ, ವಡೆ, ದೋಸೆ ಬಳಸಿಕೊಂಡು, ಶೇಕ್ಸ್ಪಿಯರ್ ರೀತಿಯಲ್ಲಿ ಕುತೂಹಲ ಅಂಶಗಳನ್ನು ಒಳಗೊಂಡ ನಾಟಕ ರಚಿಸುವಂತೆ ಕೋರಿದ್ದರು. ಕೆಲವೇ ಕ್ಷಣಗಳಲ್ಲಿ ಅದು ಈ ಬಗ್ಗೆ ಒಂದು ನಾಟಕವನ್ನು ರಚಿಸಿ ಸಾರ್ವಜನಿಕರ ಮುಂದೆ ಪ್ರದರ್ಶಿಸಿತ್ತು.
ಮೊದಲ ಬಾರಿಗೆ ಕೋರ್ಟಲ್ಲಿ ChatGPT ಬಳಕೆ: ಜಾಮೀನು ತೀರ್ಪಿನ ವೇಳೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಅಭಿಪ್ರಾಯ ಪಡೆದ ಹೈಕೋರ್ಟ್
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಬಳಸಿದ್ದ ಮಸ್ಕ್ ರಿಂದಲೇ ವಿರೋಧ!
ವಿಶೇಷವೆಂದರೆ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಯನ್ನು ತನ್ನ ಟೆಸ್ಲಾ ಕಾರುಗಳಲ್ಲಿ ಬಳಸಿ ವಿಶ್ವದಾದ್ಯಂತ ಸುದ್ದಿಯಾಗಿದ್ದ ವಿಶ್ವದ ನಂ.1 ಶ್ರೀಮಂತ ಎಲಾನ್ ಮಸ್ಕ್ (Elon musk) ಕೂಡಾ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಬೆಳವಣಿಗೆಗೆ ಬ್ರೇಕ್ ಹಾಕುವ ಬಗ್ಗೆ ಬಹಿರಂಗವಾಗಿಯೇ ಮಾತನಾಡಿದ್ದಾರೆ. ಟೆಸ್ಲಾ ಕಾರುಗಳ ಜೊತೆಗೆ ಮಸ್ಕ್ರ ಬಾಹ್ಯಾಕಾಶ ಯೋಜನೆ ಕುರಿತ ಸಂಸ್ಥೆಯಾದ ಸ್ಪೇಸ್ ಎಕ್ಸ್ನಲ್ಲೂ(space x) ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ದೊಡ್ಡಮಟ್ಟದಲ್ಲಿ ಬಳಕೆಯಾಗುತ್ತಿದೆ. ಜೊತೆಗೆ ಚಾಟ್ ಜಿಪಿಟಿ ಅಭಿವೃದ್ಧಿಪಡಿಸಿದ ಓಪನ್ ಎಐ ಕಂಪನಿಯ ಸಂಸ್ಥಾಪಕರಲ್ಲಿ ಮಸ್್ಕ ಕೂಡಾ ಒಬ್ಬರು. ಇದೆಲ್ಲದರ ಹೊರತಾಗಿಯೂ ಮಸ್ಕ್ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಯಲ್ಲಿನ ಹೊಸ ಪ್ರಯೋಗಗಳಿಗೆ ಬ್ರೇಕ್ ಹಾಕುವ ಬಗ್ಗೆ ಒಲವು ವ್ಯಕ್ತಪಡಿಸಿದ್ದಾರೆ.
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಎಂದರೇನು?
ಮಾನವ ತನ್ನ ಮೆದುಳನ್ನು ಬಳಸಿಕೊಂಡು ಯಾವುದೇ ವಿಷಯವನ್ನು ತರ್ಕಬದ್ಧವಾಗಿ ಆಲೋಚಿಸಿ ಕೆಲಸ ಮಾಡುತ್ತಾನೆ. ಕಂಪ್ಯೂಟರ್ಗಳಿಗೂ ಸೂಕ್ತ ಪ್ರೋಗ್ರಾಂಗಳನ್ನು ಬರೆದು ಅವುಗಳು ಕೂಡಾ ಮಾನವನ ಮೆದುಳಿನಂತೆ ಸ್ವತಂತ್ರವಾಗಿ ಚಿಂತಿಸಿ ಕಾರ್ಯನಿರ್ವಹಿಸುವಂಥ ವ್ಯವಸ್ಥೆಯನ್ನೇ ‘ಆರ್ಟಿಫಿಷಿಯಲ್ ಇಂಟೆಲಿಜೆನ್ಸ್’ ಅಥವಾ ‘ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ’ ಎಂದು ಹೇಳಲಾಗುತ್ತದೆ. ಉದಾಹರಣೆಗೆ ಸ್ವಯಂ ಚಾಲಿತ ಕಾರುಗಳು, ನಾವು ಗೂಗಲ್ನಲ್ಲಿ ಯಾವುದೇ ವಿಷಯಗಳನ್ನು ಸರ್ಚ್ ಮಾಡುವಾಗ ಆ ವಿಷಯಕ್ಕೆ ಸಂಬಂಧಿಸಿದ ಸುದ್ದಿಗಳು/ಸಂದೇಶಗಳು ಪದೇ ಪದೇ ಕಾಣಿಸಿಕೊಳ್ಳುವುದು ಮೊದಲಾದವುಗಳು.
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಅಪಾಯ ಏನು?
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ವ್ಯವಸ್ಥೆಯ ಮಾನವನ ಮೆದುಳಿನಂತೆ (Human brain) ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆಯಾದರೂ, ಇನ್ನೂ ಶೇ.100ರಷ್ಟು ಮಾನವನ ಮೆದುಳಿನ ಸಾಮರ್ಥ್ಯ ಅದಕ್ಕೆ ಬಂದಿಲ್ಲ. ಹೀಗಾಗಿ ತನ್ನನ್ನು ಪ್ರೋಗ್ರಾಂ (Program) ಮಾಡಿರುವ ರೀತಿ ಆಧರಿಸಿ ಅದು ಕೆಲಸ ಮಾಡುತ್ತದೆ. ಹೀಗಾಗಿ ನಾವು ಅದಕ್ಕೆ ಕೇಳುವ ಯಾವುದೇ ಪ್ರಶ್ನೆಗೆ ಅದು ನೀಡುವ ಉತ್ತರ ತಪ್ಪಾಗಿರಬಹುದು. ಅದನ್ನು ಪರಿಶೀಲಿಸಲು ನಾವು ಹೋಗದೇ ಇದ್ದಲ್ಲಿ ಜಗತ್ತಿನಾದ್ಯಂತ ಪ್ರತಿಕ್ಷಣಕ್ಕೂ ಇವು ಕೋಟ್ಯಂತರ ತಪ್ಪು ಮಾಹಿತಿ ರವಾನಿಸುವ ಕೆಲಸ ಮಾಡಬಹುದು. ಸುಳ್ಳು ಮಾಹಿತಿ ಅಥವಾ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಅಸ್ತ್ರವನ್ನಾಗಿ ಬಳಸಿಕೊಳ್ಳಬಹುದು.
ಗೋಲ್ಡ್ಮನ್ ಸ್ಯಾಚ್ಸ್ಸನ ಇತ್ತೀಚಿನ ವರದಿ ಪ್ರಕಾರ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (Aritificial inteligency) ವ್ಯವಸ್ಥೆ ಅಂದುಕೊಂಡ ಪ್ರಮಾಣದಲ್ಲಿ ಅಭಿವೃದ್ಧಿಯಾಗಿ ಪೂರ್ಣ ಸಾಮರ್ಥ್ಯದಲ್ಲಿ ಕೆಲಸ ಮಾಡಿದರೆ ಜಗತ್ತಿನಾದ್ಯಂತ 30 ಕೋಟಿ ಉದ್ಯೋಗ ಕಸಿದುಕೊಳ್ಳುವ ಸಾಧ್ಯತೆ ಇದೆ. ವ್ಯವಸ್ಥೆ ಅಭಿವೃದ್ಧಿಪಡಿಸಿದವರಿಗೇ ಅದು ಯಾವ ರೀತಿಯಲ್ಲಿ ಕೆಲಸ ಮಾಡುತ್ತದೆ ಎಂದು ಊಹಿಸಲಾಗದೇ ಹೋದರೆ, ನಿಯಂತ್ರಣ ಸಾಧ್ಯವಾಗದೇ ಹೋದರೆ ಅದರಿಂದ ಎದುರಾಗಬಹುದಾದ ಅಪಾಯ ಊಹಿಸಲೂ ಸಾಧ್ಯವಿಲ್ಲ.
(Technology) ಬಳಕೆಯಾದರೆ ಅಪರಾಧಿಗಳ ಪತ್ತೆ ಕಷ್ಟವಾಗಬಹುದು. ರಕ್ಷಣಾ ವಲಯದಲ್ಲಿ ಇವುಗಳ ಬಳಕೆಯಾದರೆ ಶಸ್ತ್ರಾಸ್ತ್ರಗಳು ಇನ್ನಷ್ಟು ವಿನಾಶಕಾರಿಯಾಗಬಹುದು. ಯಾರು ಬೇಕಾದರೂ ಇವುಗಳನ್ನು ಹ್ಯಾಕ್ ಮಾಡಬಹುದಾದ ಕಾರಣ, ಇಂಥ ವ್ಯವಸ್ಥೆ ಬಳಸಿ ಓಡುವ ವಾಹನ ಅಥವಾ ಇನ್ಯಾವುದೇ ವ್ಯವಸ್ಥೆಗಳು ಸದಾ ಅಪಾಯದ ಭೀತಿಯಲ್ಲೇ ಇರಬೇಕಾಗುತ್ತದೆ.