ಚಾಟ್‌ಜಿಪಿಟಿ ಕೊಟ್ಟ ಸಲಹೆಯಿಂದ ಆಸ್ಪತ್ರೆ ಸೇರಿದ ವ್ಯಕ್ತಿ: ಅಷ್ಟಕ್ಕೂ ಆತ ಕೇಳಿದ್ದೇನು?

Untitled design 2025 08 11t231629.079

ಇದು ಎಐ ಯುಗ ಎಂದರೆ ಖಂಡಿತ ತಪ್ಪಾಗಲಾರದು. ಇತ್ತೀಚಿನ ದಿನಗಳಲ್ಲಿ ಬಹುಜನರು ತಮ್ಮ ದಿನನಿತ್ಯದ ಸಮಸ್ಯೆಗಳಿಗೆ ChatGPT ಮತ್ತು ಇತರ AI ಸಾಧನಗಳನ್ನು ಅವಲಂಬಿಸುತ್ತಿದ್ದಾರೆ. ಆದರೆ, ಇದರ ಸಲಹೆಗಳನ್ನು ಕುರುಡಾಗಿ ನಂಬುವುದು ಎಷ್ಟು ಅಪಾಯಕಾರಿ ಎಂಬುದನ್ನು ಒಂದು ಘಟನೆ ಸ್ಪಷ್ಟಪಡಿಸಿದೆ.

ಚಾಟ್‌ಜಿಪಿಟಿ ಕೊಟ್ಟ ತಪ್ಪು ಸಲಹೆ:
ಅಮೇರಿಕಾದ ಒಬ್ಬ ವ್ಯಕ್ತಿ ತನ್ನ ಆಹಾರದಲ್ಲಿ ಹೆಚ್ಚಿನ ಉಪ್ಪಿನ (ಸೋಡಿಯಂ ಕ್ಲೋರೈಡ್) ಬಳಕೆಯನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಏನು ಬಳಸಬಹುದು ಎಂದು ChatGPT ಗೆ ಸಲಹೆ ಕೇಳಿದ್ದನು. ಇದಕ್ಕೆ AI ಸೋಡಿಯಂ ಕ್ಲೋರೈಡ್ ಬದಲಿಗೆ ಸೋಡಿಯಂ ಬೊಮೈಡ್ ಬಳಸಲು ChatGPT ಸಲಹೆ ನೀಡಿತ್ತು. ಈ ರಾಸಾಯನಿಕವನ್ನು ಪಶುವೈದ್ಯಕೀಯ ಮತ್ತು ಕೈಗಾರಿಕಾ ಉಪಯೋಗಗಳಿಗೆ ಮಾತ್ರ ಬಳಸಲಾಗುತ್ತದೆ. ಮಾನವರ ಆರೋಗ್ಯಕ್ಕೆ ಇದು ಗಂಭೀರ ಹಾನಿಕಾರಕ ಎಂದು ದಶಕಗಳ ಹಿಂದೆಯೇ ನಿಷೇಧಿಸಲಾಗಿತ್ತು.

ಈ ವ್ಯಕ್ತಿ ChatGPT ಯ ಸಲಹೆಯನ್ನು ವೈದ್ಯರೊಂದಿಗೆ ಚರ್ಚಿಸದೆ, 3 ತಿಂಗಳ ಕಾಲ ಸೋಡಿಯಂ ಬೊಮೈಡ್ ಅನ್ನು ತನ್ನ ಆಹಾರದಲ್ಲಿ ಬಳಸಿ ಸೇವಿಸಿದ್ದಾನೆ. ಇದರ ಪರಿಣಾಮವಾಗಿ ಅವನ ಆರೋಗ್ಯ ಹದಗೆಟ್ಟು, ಮಾನಸಿಕ ಅಸ್ತವ್ಯಸ್ತತೆ, ಆತಂಕ, ಮತ್ತು ನಿದ್ರಾಹೀನತೆ ಗಳಂತಹ ಗಂಭೀರ ಲಕ್ಷಣಗಳು ಕಾಣಿಸಿಕೊಂಡವು. ಅಂತಿಮವಾಗಿ, ಅವನನ್ನು ಆಸ್ಪತ್ರೆಗೆ ಸೇರಿಸಲಾಯಿತು.

ವೈದ್ಯರು ಪರೀಕ್ಷಿಸಿದಾಗ, ರಕ್ತದಲ್ಲಿನ ಬ್ರೋಮೈಡ್ ಮಟ್ಟ ಅಸಾಧಾರಣವಾಗಿ ಹೆಚ್ಚಿರುವುದು ಪತ್ತೆಯಾಯಿತು. ತುರ್ತು ಚಿಕಿತ್ಸೆಯ ಮೂಲಕ, ಕೆಲವು ವಾರಗಳ ನಂತರ ಆತ ನಿಧಾನವಾಗಿ ಚೇತರಿಸಿಕೊಂಡನು. ಆಸ್ಪತ್ರೆಯಿಂದ ಬಿಡುಗಡೆಯಾದ ಬಳಿಕ, ವೈದ್ಯರು “ನೀವು ಏಕೆ ಬ್ರೋಮೈಡ್ ಸೇವಿಸುತ್ತಿದ್ದಿರಿ?” ಎಂದು ಪ್ರಶ್ನಿಸಿದಾಗ, ಆತ ಚಾಟ್‌ಜಿಪಿಟಿ ಸಲಹೆಯನ್ನು ಅನುಸರಿಸಿದ್ದಾಗಿ ಒಪ್ಪಿಕೊಂಡನು.

ವೈದ್ಯಕೀಯ ವರದಿ:
ವಾಷಿಂಗ್ಟನ್ ವಿಶ್ವವಿದ್ಯಾಲಯದ ವೈದ್ಯರು “ಆನಲ್ಸ್ ಆಫ್ ಇಂಟರ್ನಲ್ ಮೆಡಿಸಿನ್” ಜರ್ನಲ್‌ನಲ್ಲಿ ಈ ಪ್ರಕರಣವನ್ನು ದಾಖಲಿಸಿದ್ದಾರೆ. ಅವರ ಪ್ರಕಾರ, ಬೊಮೈಡ್ ಸೇವನೆಯು ನರಮಂಡಲದ ಮೇಲೆ ವಿಷಪರಿಣಾಮ ಬೀರುತ್ತದೆ. ಇದನ್ನು 1950ರ ದಶಕದ ನಂತರ ನಿಷೇಧಿಸಲಾಗಿತ್ತು ಎಂದು ಹೇಳಿದರು.

 

Exit mobile version