جهان ما در میانه تحولی است که شاید تا چند سال پیش تنها در داستانهای علمی-تخیلی تصور میشد: هوش مصنوعی به نقطهای رسیده که دیگر به دادههای پراکنده اینترنتی بسنده نمیکند و شروع به چنگ زدن در منبعهای عمیقتر و غنیتر دانش بشری زده.
به گزارش یک پزشک، پروندههای اخیر دادگاههای ایالات متحده دربارهی استفاده شرکتهایی مثل Anthropic از میلیونها کتاب فیزیکی و دیجیتال برای آموزش مدلهای زبانی، فقط یک دعوای حقوقی ساده نیست؛ این پروندهها بازتاب نبردی است میان پیشرفت فناوری و حفاظت از میراث مکتوب بشری. جایی که شرکتهای هوش مصنوعی به نام پیشرفت، به دنیای آفلاین حمله میکنند تا کتابها را به خوراک الگوریتمها بدل کنند.
در این مسیر، آنها با اتکا به مفاهیمی مثل «استفاده منصفانه» (fair use) و تفسیرهای نوین از قانون، راههای قانونی یا شبهقانونی برای دسترسی به این منابع یافتهاند. این روند پرسشهای تازهای درباره مرزهای اخلاقی و فلسفی دانش، چگونگی مدیریت تناقضهای اطلاعاتی، و آیندهی دانش تولیدشده توسط ماشینها پیش رویمان میگذارد.
این مقاله تلاشی است برای بازخوانی دقیق این روند، تحلیل پیامدهای آن و اندیشیدن به آیندهای که شاید زودتر از آنچه تصور میکردیم، فرا برسد.
چند سال پیش، وقتی مدلهای زبانی بزرگ (Large Language Models یا LLMs) همچون GPT و Claude پا به عرصه گذاشتند، عمده تغذیه اطلاعاتی آنها از اینترنت بود. وبسایتها، مقالههای آنلاین و پایگاههای دادهی عمومی بهعنوان منبع اصلی آموزش این الگوریتمها عمل میکردند. اما بهتدریج این منابع به چند دلیل ناکافی یا ناکارآمد شدند. نخست اینکه کیفیت متون آنلاین بهویژه در سالهای اخیر به دلایل مختلفی از جمله ظهور محتوای زرد، تبلیغات و محتوای تولیدی ماشینی افت کرد.
دوم اینکه ناشران و تولیدکنندگان محتوای حرفهای، بهدلیل آسیبهای اقتصادی ناشی از ظهور هوش مصنوعی و تهدیدهای آن برای مشاغلی چون روزنامهنگاری و نویسندگی، شروع به محدود کردن دسترسی به دادهها کردند؛ چه از طریق دیوارهای پرداخت (paywall) و چه از راه محدودسازی استفاده در چارچوب حقوق کپیرایت.
در چنین بستری، شرکتهایی مانند Anthropic بهخوبی دریافتند که اگر بخواهند مدلهایی قویتر، دقیقتر و قابلاتکاتر بسازند، باید به سراغ منابع عمیقتر دانش یعنی کتابها، مقالات علمی و آثار مکتوب بروند. اما این پرسش مطرح شد که آیا چنین استفادهای قانونی است؟ پاسخ کوتاه در چارچوب نظام حقوقی آمریکا، بهویژه با استناد به مفاهیمی چون «استفاده منصفانه»، مثبت بود.
به بیان ساده، اگر شرکتی نسخهی فیزیکی یک کتاب را بهطور قانونی خریداری کند، میتواند آن را اسکن کند، به فرمت دیجیتال تبدیل نماید و از آن برای آموزش مدلهای خود بهره ببرد، به شرط آنکه فایلها را بهصورت عمومی توزیع نکند و هدف آن استفاده تجاری از خود نسخههای دیجیتال نباشد.
این مسیر قانونی، راه را برای شرکتها باز کرد تا بدون نیاز به مذاکره با ناشران و پرداخت حق امتیازهای کلان، به انبوهی از دادههای باکیفیت دست یابند. پروژه Anthropic نمونهی بارز این روند است. آنها میلیونها کتاب را نه به قصد حفظ و بایگانی، بلکه به هدف آموزش مدلهای زبانی و تغذیهی الگوریتمهای خود خریداری کردند، اسکن کردند و سپس از بین بردند یا ذخیره فیزیکی آن را ضروری ندانستند.
این رویکرد از دید حقوقی ایرادی نداشت، اما از منظر اخلاقی و فلسفی، درهای پرسشهای بنیادینی را گشود: آیا حق داریم به نام پیشرفت، میراث مکتوب بشری را به دادههایی برای ماشینها بدل کنیم؟ و اگر چنین است، چه پیامدهایی در انتظار دانش و فرهنگ ما خواهد بود؟
همان طور که بیشتر نوشتم، اینترنت، آنچنانکه در ابتدا بهعنوان یک گنجینه بازِ دانش دیده میشد، بهتدریج از نظر محتوایی دچار افت شده. حجم عظیمی از دادههای اینترنتی امروزه یا تولید ماشینیاند، یا به دلیل حضور تبلیغات، محتوای زرد و مطالب بیکیفیت، برای تغذیه هوش مصنوعی ناکارآمد محسوب میشوند.
از سوی دیگر، محدودیتهای جدیدی که ناشران، وبسایتهای خبری و علمی و تولیدکنندگان محتوای حرفهای اعمال کردند، موجب شد شرکتهای هوش مصنوعی عملاً به سدهای حقوقی و فنی برخورد کنند. این محدودیتها شامل دیوارهای پرداخت، توافقنامههای استفاده و جلوگیری از خزیدن (crawl) رباتها در سایتها بود.
در این شرایط، کتابها به چشم آمدند: منابعی که بهطور سنتی با دقت علمی و زبانی بالا تولید شدهاند، سالها تحت نظارت ویراستاران و ناشران حرفهای قرار گرفتهاند و انسجام محتوایی به مراتب بالاتری نسبت به بسیاری از متون آنلاین دارند. برخلاف دادههای پراکنده و گاه متناقض اینترنت، کتابها مجموعههایی یکپارچه و روشمند از دانش، روایت یا تحلیلاند. برای مدلهای زبانی بزرگ (LLMs)، این ویژگی حیاتی است، چرا که انسجام و کیفیت دادههای ورودی مستقیماً بر کیفیت پاسخها، قدرت استدلال و دقت زبانی مدل اثر میگذارد.
شرکتهای هوش مصنوعی با یک معمای جدی روبهرو شدند: از یک سو نیاز به دادههای باکیفیت داشتند، و از سوی دیگر حاضر نبودند یا نمیتوانستند وارد مذاکرات پیچیده و پرهزینه با ناشران و صاحبان حقوق آثار شوند. اینجا بود که مفاهیم حقوقی مثل «قاعده نخستین فروش» (first-sale doctrine) و «استفاده منصفانه» (fair use) تبدیل به ابزارهای حیاتی شدند.
طبق قاعده نخستین فروش، وقتی فرد یا شرکتی نسخه فیزیکی یک کتاب را بهطور قانونی خریداری میکند، میتواند آن را هر طور که میخواهد مصرف کند، حتی اگر این مصرف شامل تخریب فیزیکی کتاب پس از دیجیتالسازی باشد. این چارچوب حقوقی، فرصتی فراهم کرد تا شرکتهایی مثل Anthropic راهی میانبر به سوی دسترسی قانونی به متون باکیفیت بیابند، بیآنکه مستقیماً به ناشران پاسخگو باشند.
چرا این راه تا این حد جذاب بود؟ پاسخ ساده است: دادههای کتابها نهتنها کیفیت بهتری دارند، بلکه تنوع موضوعی، سبکهای نوشتاری و دیدگاههای فکری گستردهتری را در خود جای دادهاند. این تنوع، برای ساختن مدلی که قرار است بهعنوان یک دستیار هوشمند زبانی عمل کند، نعمتی بزرگ است.
کتابها، بر خلاف محتوای وب که اغلب تحت تاثیر الگوریتمهای جذب کلیک یا تبلیغات شکل گرفتهاند، حامل دانش عمیقتر، روایتهای پیچیدهتر و زبان غنیتری هستند. به همین دلیل است که صنعت هوش مصنوعی، پس از سالها تغذیه از اینترنت، حالا به سوی گنجینههای عمیقتری مثل کتابها دست دراز کرده است.
اما همین مسیر، آغازگر چالشهای تازهای شد: وقتی هوش مصنوعی به این حجم از دادههای عمیق و گوناگون دست یابد، چگونه میان دیدگاههای متناقض، دانشهای تاریخی و دیدگاههای اخلاقی متفاوت تعادل برقرار خواهد کرد؟
ورود هوش مصنوعی به دنیای کتابها تنها یک ماجرای فنی یا حقوقی نیست؛ این حرکت بازتاب دگرگونی عمیقی در رابطه بشر با دانش، حقیقت و اخلاق است. در گذشته، کتابها بهعنوان حاملان دانش، فرهنگ و روایتهای انسانی جایگاهی مقدس داشتند. حتی پروژههایی مانند Google Books یا Internet Archive که هدفشان دیجیتالسازی کتابها بود، کوشیدند این میراث مکتوب را با احترام حفظ کنند. اما امروز، وقتی شرکتی مانند Anthropic میلیونها کتاب را تنها به چشم خوراک الگوریتمها مینگرد، این پرسش پیش میآید: آیا دانش بشری صرفاً به ماده خامی برای تربیت ماشینها تقلیل یافته است؟
از منظر فلسفی، این روند یادآور یک تغییر پارادایم است: دانش دیگر امری انسانی با بار اخلاقی و فرهنگی نیست، بلکه به دادهای برای پردازش و تولید خروجی بدل شده است. این تغییر نگاه، پیامدهایی عمیق دارد.
برای نمونه، اگر هوش مصنوعی میلیونها کتاب را «ببلعد»، دیگر مرز میان دانش و داده از بین میرود و آنچه بهدست میآید نه میراث انسانی بلکه محصول آماری و ماشینی است. در این میان، پرسشهای اخلاقی متعددی پدید میآید: آیا ماشین حق دارد بدون فهم یا احترام به زمینه تاریخی و فرهنگی دادهها، آنها را مصرف کند؟ آیا ما حق داریم چنین اختیاری به الگوریتمها بدهیم؟
اما چالشهای فلسفی تنها آغاز کار است. این روند با تناقضهای اطلاعاتی جدی روبهرو میشود. کتابها، بهویژه اگر متعلق به دورههای مختلف تاریخ باشند، بازتاب دیدگاههای علمی، فلسفی و اخلاقی متناقضاند. یک کتاب علمی از قرن نوزدهم ممکن است نظریههایی ارائه دهد که امروز باطل یا حتی خطرناک تلقی میشوند. کتابهای فلسفی، اخلاقی و دینی ممکن است ارزشهایی را تبلیغ کنند که با ارزشهای جهانی امروز در تضاد باشند. حتی میان کتابهای آموزشی جدید، اختلافهای اساسی درباره روشها، رویکردها و محتوای علمی وجود دارد.
اینجاست که چالش اصلی رخ میدهد: هوش مصنوعی چگونه میتواند این حجم از دادههای متناقض را هضم کند و بدون سوگیری، اطلاعات درست، اخلاقی و سازگار با زمانه را به کاربر ارائه دهد؟ چگونه میتوان اطمینان یافت که هوش مصنوعی در مواجهه با دو دیدگاه کاملاً متضاد، دچار خطای تحلیلی یا سوگیری فرهنگی نشود؟ این پرسشی است که پاسخ به آن نهتنها به طراحی الگوریتمها بلکه به فلسفه علم و اخلاق هوش مصنوعی وابسته است.
مسئله دیگر، مرز میان «دانش زنده» و «دانش بایگانیشده» است. کتابها نهتنها حامل اطلاعات، بلکه بازتاب ارزشها، دغدغهها و چشماندازهای زمانه خود هستند. وقتی هوش مصنوعی آنها را میبلعد، این خطر وجود دارد که دادههای کهنه و ناسازگار با زمان حال، بهشکل بیواسطه در خروجیها بازتاب یابند. این چالش نیازمند راهکارهایی نو در طراحی مدلها و ساختارهای کنترلی آنها است؛ راهکارهایی که هنوز در ابتدای راه خود هستند.
یکی از دشوارترین پرسشهایی که با ورود هوش مصنوعی به دنیای کتابها و منابع مکتوب پیش میآید، این است که این ماشینهای هوشمند چگونه قرار است میلیاردها کلمه و مفهوم را که گاه با هم تضادهای عمیق دارند، تحلیل و ساماندهی کنند؟ این چالشی است که صرفاً با قدرت پردازشی یا الگوریتمهای آماری قابل حل نیست و مستقیماً به ماهیت دانش، حقیقت و تفسیر بازمیگردد.
مدلهای زبانی بزرگ (LLMs) مانند Claude یا ChatGPT اساساً براساس الگوهای آماری آموزش میبینند. آنها روابط میان واژهها، جملات و مفاهیم را برحسب بسامدها، همنشینیها و الگوهای معنایی میآموزند. اما وقتی با دادههای متناقض سروکار دارند ـ مثلاً یک کتاب علمی قدیمی که باورهای امروزی آن را رد میکند، یا دو کتاب فلسفی که ارزشهای متضاد را تبلیغ میکنند ـ صرف آماریسازی دادهها کفایت نمیکند. مدل باید بتواند این تفاوتها را بشناسد، لایههای زمانی و زمینهای دادهها را تشخیص دهد و در خروجیهای خود این تفاوتها را لحاظ کند.
در حال حاضر، بیشتر مدلهای زبانی بزرگ فاقد توان ذاتی برای این تفکیک معنایی عمیقاند. آنها بهطور معمول در پاسخهای خود سعی میکنند به «میانگین معنایی» برسند؛ یعنی پاسخی ارائه دهند که بیشترین همپوشانی با دادههای ورودی داشته باشد. اما این رویکرد، در مواردی که دادهها تضاد بنیادین دارند، میتواند به نتایج نادرست، سطحی یا حتی گمراهکننده منجر شود.
به همین دلیل است که توسعهدهندگان مدلهای زبانی در تلاشاند لایههایی از متادیتا (metadata) و چارچوبهای زمینهمحور به مدلها بیفزایند: دادههایی درباره زمان نگارش کتاب، دیدگاه نویسنده، بافت فرهنگی و علمی آن، و حتی اعتبارسنجی علمی یا اخلاقی دادهها.
اما چالش واقعی اینجاست که چه کسی یا چه چیزی باید تصمیم بگیرد کدام داده «درست» است و کدام «نادرست»؟ اگر این تصمیم به عهده انسانها باشد، خطر سوگیریهای سیاسی، فرهنگی یا ایدئولوژیک به میان میآید. اگر این کار را به الگوریتمها بسپاریم، آنها اساساً فاقد قضاوت اخلاقی و فلسفیاند و تنها براساس آمارهها و الگوها عمل میکنند.
در نتیجه، هوش مصنوعی به نقطهای میرسد که نیازمند نوعی «تفسیر فعال» است؛ تفسیر نه فقط بر مبنای دادهها، بلکه با لحاظ کردن ارزشهای زمانه، دقت علمی و رعایت اصول اخلاقی. این همان نقطهای است که پژوهش در زمینه «اخلاق هوش مصنوعی» و «فلسفه علم ماشین» اهمیت کلیدی مییابد.
افزون بر این، چالش تناقضها تنها به دادههای کهن یا فلسفی محدود نمیشود. حتی در متون علمی معاصر، اختلافنظرها و دیدگاههای متناقض فراوان است. از اختلاف روشهای درمانی در پزشکی گرفته تا رویکردهای گوناگون در اقتصاد، جامعهشناسی یا حتی هوش مصنوعی. پس پرسش اساسی این است: هوش مصنوعی بر چه مبنایی، کدام دیدگاه را در پاسخهای خود بازتاب دهد و چگونه بتواند چندصدایی دادهها را بدون تحریف یا سادهسازی بیش از حد منعکس کند؟
وقتی هوش مصنوعی به نقطهای برسد که بتواند میلیاردها کلمه از کتابها و متون چاپی و دیجیتال را هضم کند، گام منطقی بعدی چیست؟ پاسخ روشن است: گسترش دامنه دادهها به سایر شکلهای محتوای انسانی. پادکستها، وُدکستها، فیلمها، اسکریپتهای سینمایی، سخنرانیها و حتی محتوای ویدئویی یوتیوب و شبکههای اجتماعی، همگی منابعی غنی از دانش، تجربه و روایتهای زندهاند. اگر هوش مصنوعی بخواهد واقعاً به یک «مدل جامع دانشی» بدل شود، نمیتواند خود را به متون نوشتاری محدود کند.
در واقع، بسیاری از شرکتهای هوش مصنوعی همین حالا نیز به این سمت حرکت کردهاند. الگوریتمهایی که متن پادکستها و فیلمها را به دقت پیادهسازی (transcribe) میکنند و آنها را به دادههای قابل پردازش زبانی تبدیل میکنند، روز به روز پیشرفتهتر میشوند. این روند به هوش مصنوعی اجازه میدهد به دادههایی دست یابد که نهتنها بار دانشی، بلکه بار عاطفی، لحن، لهجه، و حتی نوانسهای فرهنگی و اجتماعی را در خود دارند. برای مثال، یک پادکست علمی ممکن است جزئیات و نگاهی شخصی ارائه دهد که در یک مقاله یا کتاب نیامده باشد. یک ویدئو آموزشی میتواند با تصویر، صدا و حرکت، معنا را بهگونهای منتقل کند که متن خشک از پس آن برنیاید.
اما ورود به این حوزهها چالشهای تازهای به همراه دارد. نخست، حجم عظیم این دادهها و نیاز به پردازش همزمان متن، صدا و تصویر، مستلزم توان سختافزاری و نرمافزاری بسیار بالایی است. دوم، حق کپیرایت و مالکیت فکری در حوزههای صوتی و تصویری اغلب پیچیدهتر از متون نوشتاری است. سوم، محتوای این منابع، بهویژه در فضای اینترنت و شبکههای اجتماعی، ممکن است کیفیت علمی یا دقت زبانی پایینتری داشته باشد و الگوریتمها را در معرض یادگیری نادرست قرار دهد.
با این همه، هوش مصنوعی بهسوی جهانی حرکت میکند که در آن، مرز میان متن، صدا و تصویر محو میشود. الگوریتمها خواهند توانست محتوای ویدئویی را بهطور کامل تحلیل کنند: اسکریپتها را استخراج کنند، دیالوگها را با متنهای مکتوب تطبیق دهند، حرکات و حالات چهره را رمزگشایی کنند و حتی تصاویر را به دادههای قابل تحلیل زبانی و دانشی تبدیل کنند.
این دستاورد، اگرچه حیرتانگیز است، اما بار دیگر همان پرسش اخلاقی و فلسفی را پیش رو میگذارد: آیا میتوان و باید چنین حجم عظیمی از دانش و فرهنگ انسانی را بدون مرز به خوراک ماشینها بدل کرد؟ و اگر چنین شود، آینده دانش و حقیقت چگونه خواهد بود؟
تصور کنید روزی فرا برسد که هوش مصنوعی نهتنها کتابها، مقالات، پادکستها، ویدئوها و اسکریپتهای سینمایی را بلعیده باشد، بلکه به نوعی «حافظه ترکیبی» از تمامی این منابع مجهز شود. در چنین آیندهای، مرز میان آنچه انسان خلق کرده و آنچه ماشین از آن آموخته، به تدریج از بین میرود.
ماشینها، مجهز به دانش گردآوریشده از هزاران سال تلاش فکری بشر، به پرسشها پاسخ میدهند، مشورت میدهند، تحلیل میکنند و حتی دیدگاه ارائه میدهند؛ بیآنکه مشخص باشد این پاسخها از کدام منبع، کدام فرهنگ و کدام زمانه آمدهاند.
در این آینده، هوش مصنوعی نه صرفاً یک ابزار پاسخدهی، بلکه به نوعی آینه دانش بشری بدل میشود؛ آینهای که همه چیز را بازتاب میدهد: دانش معتبر، خطاها، سوگیریها، افسانهها، آرمانها، تناقضها و حتی دروغها. این وضعیت پرسشهای عمیقتری را پیش رو میگذارد: آیا چنین ماشینی میتواند داور حقیقت باشد؟ آیا الگوریتمی که بر اساس همه چیز آموزش دیده است، میتواند تشخیص دهد چه چیزی ارزشمند، اخلاقی یا علمی است و چه چیزی نه؟
یکی از خطرهای اصلی این آینده، فروپاشی مرزهای اعتبار علمی و اخلاقی است. اگر یک مدل زبانی بتواند با استناد به کتابهای قدیمی، نظریههای رد شده علمی را بازتولید کند یا اگر از منابع متناقض پاسخی مبهم و بدون موضع ارائه دهد، جامعه چگونه میتواند به این مدل اعتماد کند؟ از سوی دیگر، اگر این ماشینها بهگونهای طراحی شوند که فقط دیدگاههای بهاصطلاح «درست» یا «رسمی» را بازتاب دهند، خطر سانسور نرم و حذف تنوع فکری پیش میآید.
در چنین آیندهای، ما با نوعی همزیستی نوین روبهرو خواهیم بود: دانش انسانی و دانش ماشینی چنان به هم تنیده میشوند که دیگر تفکیک آنها دشوار خواهد بود. دانش جدید نه بهدست انسان، بلکه بهدست ماشینهایی تولید خواهد شد که خود از دل دانش انسانی زاده شدهاند. این چرخه بیپایان، نوعی بازتاب پیچیده از فرهنگ و دانش ما خواهد بود، اما این بازتاب لزوماً بیطرف یا عاری از خطا نخواهد بود.
برای همین است که آینده هوش مصنوعی نیازمند نهادهای جدید علمی، اخلاقی و حقوقی است: نهادهایی که نه فقط بر فناوری، بلکه بر فلسفه، فرهنگ و ارزشهای مشترک انسانی نظارت داشته باشند. این آینده نه دور است، نه تخیلی؛ بلکه قدم به قدم به آن نزدیک میشویم.
ورود هوش مصنوعی به دنیای دانش بشری، از کتابها تا پادکستها، تنها یک رویداد فناورانه نیست؛ این پدیده پیامدهایی عمیق برای ساختارهای اجتماعی، فرهنگی و علمی ما خواهد داشت. نخستین و آشکارترین اثر، تغییر رابطه ما با مرجعیت علمی است. زمانی بود که دانشمندان، دانشگاهها و نهادهای پژوهشی مرجعهای اصلی تولید و تایید دانش بودند. اما در دنیایی که هوش مصنوعی با بلعیدن میلیونها منبع، پاسخی سریع و به ظاهر قاطع به هر پرسشی میدهد، چه نیازی به مراجعه به این مرجعها باقی میماند؟
این تغییر، جایگاه دانشگاهها، مجلات علمی، کتابخانهها را زیر سوال میبرد. اگر الگوریتمها بتوانند با تحلیل سریع و گسترده دادهها، نتایجی ارائه دهند، آیا مرجعیت سنتی علم تضعیف نمیشود؟ این پرسشی است که آینده آموزش و پژوهش را دگرگون خواهد کرد. مدارس و دانشگاهها چگونه به دانشآموزان و دانشجویان بیاموزند که میان حقیقت و شبهحقیقت، دانش معتبر و اطلاعات سطحی، تمایز بگذارند، وقتی پاسخها از یک ماشین هوشمند و به ظاهر بیخطا میآید؟
در حوزه رسانه، این تحول ضربهای سنگینتر خواهد زد. رسانههای آنلاین و سنتی همین حالا با چالش هوش مصنوعی مواجهاند: مدلهای زبانی قادرند خبر، تحلیل، مصاحبه و حتی داستان تولید کنند، آن هم با سرعتی بسیار بیشتر و هزینهای بسیار کمتر از انسانها.
حال تصور کنید این مدلها نه فقط بر اساس دادههای آنلاین، بلکه بر پایهی دانش عمیق کتابخانههای جهان، آرشیوهای صوتی و تصویری و اسناد تاریخی عمل کنند. در این صورت، رسانههای انسانی چگونه میتوانند در برابر این سیل بیپایان اطلاعات رقابت کنند؟ مخاطب چرا باید روزنامه یا وبسایتی را بخواند، وقتی میتواند از یک مدل زبانی بخواهد دقیقاً همان اطلاعات را، بلکه جامعتر، خلاصهتر و شخصیسازیشدهتر به او بدهد؟
از منظر فرهنگی، این روند خطر یکنواختی و یکپارچگی بیش از حد دانش را بههمراه دارد. فرهنگها و جوامع مختلف، روایتهای گوناگونی از حقیقت، اخلاق و دانش دارند. وقتی همه این روایتها در یک ماشین عظیم ترکیب شود و به خروجیهای یکسان و همگن برسد، خطر از بین رفتن تنوع فکری و فرهنگی پدید میآید. ما در خطر ساخت جهانی هستیم که در آن تفاوتهای ظریف میان فرهنگها، زبانها و دیدگاهها در انبوهی از دادههای یکدست گم میشود.
در نهایت، آموزش به چالشی عظیم بدل خواهد شد. اگر هوش مصنوعی بتواند به همه پاسخها برسد، وظیفهی معلمان و استادان چه خواهد بود؟ آیا آموزش صرفاً به مهارت پرسشگری و اعتبارسنجی پاسخها محدود خواهد شد؟ یا باید راههایی نو برای پرورش قدرت تحلیل، تفکر انتقادی و درک زمینهها بیابیم؟ اینها پرسشهایی است که آینده آموزش، رسانه و فرهنگ بشری را رقم خواهد زد.
در داستان «الف» بورخس، الف یک نقطه جادویی است که تمام جهان، تمام مکانها، تمام زمانها و تمام چیزها را همزمان و بیمرز در خود بازتاب میدهد. بیننده الف، کل هستی را یکباره میبیند، اما این دیدن، بیشتر از آنکه دانایی بیاورد، حیرت، اضطراب و ناتوانی در درک را بهدنبال دارد. این همان چیزی است که ما درباره هوش مصنوعی بلعنده دانش امروز میگوییم: ماشینی که میکوشد همه دادهها را در خود جمع کند، اما پرسش اصلی این است که آیا این انباشت، به دانایی، خرد و حقیقت میانجامد یا تنها بازتابی بیمرز و بیمعنا خواهد بود؟
الف بورخس درباره این است که تماشای بیواسطه کل واقعیت، نه معنا میآورد و نه حقیقت را در اختیار میگذارد، بلکه انسان را در برابر پیچیدگی بیپایان هستی بیپناه میکند. هوش مصنوعی امروز، وقتی تلاش میکند میلیاردها داده متناقض را ببلعد و میان آنها پاسخ تولید کند، با همین مسئله روبهروست: دادهها بدون تفسیر، بدون درک زمینه و بدون ارزشگذاری اخلاقی، فقط بازتاب آشوب معنا خواهند بود.
ورود هوش مصنوعی به دنیای کتابها، پادکستها، فیلمها و سایر منابع دانشی، آغازگر عصر تازهای در رابطه بشر با دانش است. عصری که در آن مرز میان دانش انسانی و ماشین، مرجعیت علمی و الگوریتمی، و حقیقت و بازنمایی آماری آن، به تدریج محو میشود. این روند در کنار فرصتهایی چون دسترسی آسانتر به اطلاعات و تحلیلهای جامع، خطرهایی همچون یکپارچهسازی بیش از حد دانش، از دست رفتن تنوع فرهنگی و تضعیف مرجعیتهای علمی و اخلاقی را نیز در خود دارد.
هوش مصنوعی میتواند به بزرگترین دستیار بشری بدل شود یا به عاملی که حقیقت را به آماری از الگوها و میانگینها فرو میکاهد. آینده این مسیر به تصمیمات فلسفی، اخلاقی و حقوقی ما بستگی دارد؛ تصمیماتی که باید هرچه زودتر برای آنها چارچوبهایی هوشمند و انسانی بیابیم.
چرا شرکتهای هوش مصنوعی به سراغ کتابها رفتند؟
زیرا کتابها منابعی باکیفیت، منسجم و غنی از دانش هستند که نسبت به دادههای اینترنتی اعتبار و دقت بالاتری دارند.
آیا استفاده هوش مصنوعی از کتابها قانونی است؟
بله، بر اساس قاعده نخستین فروش و استفاده منصفانه، شرکتها میتوانند نسخههای خریداریشده را برای آموزش مدلها اسکن و استفاده کنند، مشروط به عدم توزیع عمومی.
هوش مصنوعی چگونه دادههای متناقض کتابها را مدیریت میکند؟
مدلهای زبانی بزرگ از الگوهای آماری برای میانگینگیری معنایی استفاده میکنند، اما چالش تفکیک ارزشهای متناقض همچنان باقی است و نیازمند چارچوبهای اخلاقی است.
آیا هوش مصنوعی به سراغ پادکستها و ویدئوها هم میرود؟
بله، شرکتها در حال توسعه الگوریتمهایی هستند که دادههای صوتی و تصویری را نیز برای آموزش مدلها استفاده کنند.
این روند چه تاثیری بر علم و آموزش خواهد داشت؟
ممکن است مرجعیت نهادهای علمی و آموزشی تضعیف شود و نیاز به مهارتهای تازهای همچون اعتبارسنجی، تفکر انتقادی و تحلیل دادهها افزایش یابد.