هوش مصنوعی گوگل این توانایی را دارد که یک نقص شناختی را در انسان برجسته کند.
در اثر پیشرفت تکنولوژی بسیاری از رفتارهای انسان و رفتارهای ماشینهای هوش مصنوعی مشابهت زیادی یافته است تا جایی که مرز تشخیص تفاوت آنها هر روز باریکتر و باریکتر میشود. موارد بسیاری مشاهده شده که ذهن انسان موفق به تشخیص تفاوت بین یک موضوع مطرح شده از جانب تفکری انسانی و تفکری ماشینی نشده است. یکی از این موارد مقوله زبان است.
وقتی با جمله ای روبرو میشویم مانند « سلام، رفیق!»، صمیمیت موجود در آن و تجربه گذشته ما را به این باور میرساند که توسط یک انسان نوشته یا گفته شده است. اما امروزه بسیاری از جملاتی که بطور قابل توجهی مملو از احساسات انسانی است در واقع توسط سیستمهای هوش مصنوعی تولید میشوند. نکته قابل توجه این است که هوش مصنوعی بدون هیچ محدودیتی قادر به فراگیری تمام رفتارهای انسانی و حتی اخیراً احساسات انسانی است. همین موضوع نقش مهمی دارد در عدم تشخیص ما در تفاوت بین جملاتی که توسط انسان و یا ماشین گفته شده است.
مردم آنقدر عادت دارند که تصور کنند زبان روان (منظور گفتگوی روان است) ناشی از تفکر و احساس انسانی است که درک شواهد خلاف آن دشوار است. این سوال مطرح میشود که انسانها چطور میتوانند در این قلمرو ناشناخته از دنیای هوش مصنوعی پیش بروند؟!
به دلیل تمایل مداوم به ارتباط بین بیان روان با تفکر روان، طبیعی است – اما بالقوه گمراه کننده – که فکر کنیم اگر یک مدل هوش مصنوعی بتواند خود را روان بیان کند، به این معنی است که درست مانند انسانها فکر و احساس میکند.
همین طرز فکر موجب مطرح شدن ادعاهایی در این باره میگردد. بطور مثال، یکی از مهندسان سابق گوگل اخیراً ادعا کرده است که سیستم هوش مصنوعی گوگل LaMDA دارای احساسی از خود است، زیرا میتواند به شیوایی متنی درباره احساسات ادعا شده خود تدوین کند. این رویداد و پوشش رسانهای متعاقب آن منجر به نوشته شدن مقالههای متعدد و همچنین انتشار مطالبی گردید که شبهاتی را درباره درستی و نادرستی این ادعا مطرح میکردند ازجمله اینکه مدلهای محاسباتی زبان انسان حساس هستند، یعنی قادر به تفکر، احساس و تجربه هستند.
و اما چرا انسانها به این سادگی در دام این نقص شناختی میافتند؟! در ادامه به این موضوع میپردازیم که چه چیزی باعث میشود انسانها فرض کنند موجودی که میتواند زبان را روان استفاده کند، باهوش، آگاه یا دارای احساس است.
استفاده از هوش مصنوعی برای تولید زبانی شبیه به انسان:
تشخیص متن تولید شده توسط مدل هایی مانند LaMDA گوگل از متن نوشته شده توسط انسان دشوار است. این دستاورد چشمگیر نتیجه چند دهه برنامهریزی برای ساخت مدلهایی است که زبان دستوری و معنادار را تولید میکنند.
نسخههای اولیه ساخته شده در دهه 1950، معروف به مدلهای n-gram، به سادگی تعداد عبارات خاصی را شمارش میکردند و از آنها برای حدس زدن کلماتی که احتمالاً در یک گروه کلمه قرار میگرفتند استفاده میکردند. مشابه رفتاری که مغز انسان به طور ناخودآگاه بعد از فراگیری زبان انجام میدهد. به عنوان مثال، کاملاً برای ما واضح است که مواجهه با عبارت « کره بادام زمینی و مارمالاد» محتملتر از « کره بادام زمینی و آناناس» است. اگر به زبان انگلیسی تسلط کافی داشته باشید عبارت « کره بادام زمینی و مارمالاد» را بارها و بارها میخوانید یا به گوشتان میرسد اما ممکن است هرگز با عبارت « کره بادام زمینی و آناناس» مواجه نشوید.
مدلهای امروزی مجموعه ای از دادهها و قوانینی هستند که زبان انسان را تقلید میکنند. اما شیوه عملکرد آنها در به دنبال هم آوردن کلمات تفاوتهای زیادی با مغز انسان دارد. اول باید این نکته را در نظر گرفت که اطلاعات و آموزش آنها بر اساس اطلاعات موجود در اینترنت است. دوم اینکه آنها نه تنها روابط بین کلماتی که به هم نزدیک هستند و کنار هم در یک گروه قرار گرفتهاند را دریافتهاند بلکه ارتباط بین کلماتی که از هم فاصله دارند و در یک عبارت بکار نرفتهاند را نیز یاد میگیرند و درواقع میتوانند بین آنها نیز ارتباطی برقرار کنند. نکته سوم این است که این ماشینها از طریق تعداد بیشماری به اصطلاح «شستی» داخلی تنظیم میشوند. آنقدر زیاد که حتی برای مهندسانی که آنها را طراحی میکنند نیز درک اینکه چرا آنها یک دنباله از کلمات را به جای دیگری ایجاد میکنند دشوار است.
با این حال وظیفه این مدلها در زمینه پیشبینی اینکه بعد از هر کلمه چه کلمه دیگری باید قرار گیرد همچنان مانند برنامه ریزی دهه 1950 باقی مانده است. امروزه آن ها آنقدر در این کار خوب هستند که تقریباً تمام جملاتی که تولید میکنند روان و دستوری به نظر میرسند. اما راههایی نیز وجود دارد که بشود تفاوت زبان بکار گرفته شده توسط آنها و زبان بکار رفته توسط انسان را تشخیص داد. کلید این قفل در منطق است. یعنی وجود رابطهعقلانی بین کلمات و جملات یک متن فارق از میزان روان بودن آن. به مثالی که در ادامه آمده توجه کنید.
کره بادام زمینی و آناناس؟
در یک پژوهش از یک مدل زبان بزرگ، GPT-3، خواسته شده که جمله “کره بادام زمینی و آناناس___” را تکمیل کند و نتیجه جالبی بدست آمده است: « کره بادام زمینی و آناناس ترکیبی عالی هستند. طعم شیرین و خوش طعم کره بادام زمینی و آناناس کاملاً مکمل یکدیگر هستند.»
اگر این جملات توسط یک انسان عنوان میشد، استنباط چنین نتیجهای که آن فرد کره بادام زمینی و آناناس را با هم امتحان کرده، نظری ایجاد کرده و آن را با خواننده در میان گذاشته است، دور از ذهن نبود. اما چگونه GPT-3 به این پاراگراف رسید؟
با تولید کلمهای متناسب با زمینهای که به او ارائه کردیم و سپس یکی دیگر و سپس یکی دیگر. این مدل هرگز آناناس را ندیده، لمس نکرده یا مزه نکرده است – فقط تمام متون موجود در اینترنت را که به آنها اشاره میکنند پردازش کرده است. و با این حال، خواندن این پاراگراف میتواند ذهن انسان – حتی ذهن یک مهندس گوگل – را به تصور این که GPT-3 به عنوان موجودی هوشمند می تواند در مورد غذاهایی چون کره بادام زمینی و آناناس استدلال کند، سوق دهد.
مدل های بزرگ زبان هوش مصنوعی میتوانند حتی در مکالمات روان هم شرکت کنند. با این حال، آن ها هیچ زمینه کلیای برای برقراری ارتباط ندارند مانند آنچه مغز انسان بدون تفکر انجام میدهد، بنابراین عبارات آن ها اغلب از ترفندهای ادبی رایج پیروی میکند، که از متونی که آن ها آموزش دیدهاند استخراج شده است. برای مثال، اگر با موضوع «ماهیت عشق» روبرو شود،یک مدل ممکن است جملاتی با این مضمون ایجاد کند که عشق بر همه چیز غلبه دارد. سیستم مغز انسان ممکن است فرد شنونده این جملات را وادار کند که این کلمات را به عنوان نظر مدل در مورد موضوع تفسیر کند، اما آن ها در واقع فقط یک توالی قابل قبول از کلمات هستند.اما تفاوت اصلی کجاست؟!
درک مفاهیم نهفته در کلمات:
مغز انسان برای درک مفاهیم نهفته در کلمات برنامهریزی شده است. هر بار که وارد مکالمه میشوید، ذهن شما به طور خودکار یک مدل ذهنی از شریک گفتگوی شما میسازد. سپس از کلماتی که آن فرد میگوید استفاده میکند تا مدل ذهنی را با اهداف، احساسات و باورهای آن شخص تطبیق دهد.
فرآیند پرش از کلمات به یک مدل ذهنی، یکپارچه است و هر بار که یک جمله کامل دریافت میکند تحریک میشود. این فرآیند شناختی باعث صرفه جویی در زمان و تلاش شما در زندگی روزمره میشود و تعاملات اجتماعی شما را تا حد زیادی تسهیل میکند.این درحالی است که سیستمهای هوش مصنوعی از همچین توانایی در ساخت مدل های ذهنی یکپارچه برخوردار نیستند. به طور مثال به نتیجه دریافت شده از مدل GPT-3 توجه کنید این عبارت پس از پردازش اطلاعات درباره کلمات متفاوت و بدون الگوی یکپارچه بدست آمده است:
«کره بادام زمینی و آناناس با هم طعم عالی دارند زیرا…» و زمانی که از او خواسته شد تا جمله را تکمیل کند به این شکل ادامه داد: « کره بادام زمینی و آناناس در کنار هم طعم عالی دارند زیرا هر دو طعم آجیلی دارند. کره بادام زمینی صاف و خامه ای است و به خنثی شدن بافت آناناس کمک میکند.»
متن بالا مانند مثال اول ما در مورد آناناس، روان است، اما این بار مدل چیزی به وضوح کمتر معقولانه میگوید. همین امر موجب میگردد ذهن انسان شروع به شک کردن کند که GPT-3 هرگز کره بادام زمینی و آناناس را امتحان نکرده است؟! مسلماً خیر.
در نهایت به این نکته میپردازیم که این نقص شناختی مغز انسان ممکن است موجب چه قضاوتها و اشتباهاتی گردد.
نسبت دادن هوش به ماشینها و انکار آن درباره انسان:
طنز غم انگیز این است که همان سوگیری شناختی که باعث میشود مردم انسانیت را به GPT-3 نسبت دهند، میتواند باعث شود که آنها با انسان های واقعی به شیوههای غیرانسانی رفتار کنند. علم زبان شناسی اجتماعی _ فرهنگی به معنی مطالعه زبان در زمینه اجتماعی و فرهنگی آن، نشان میدهد که فرض یک پیوند بسیار محکم بین بیان روان و تفکر روان میتواند منجر به سوگیری علیه افرادی شود که متفاوت صحبت میکنند. به عنوان مثال در یکی از این تحقیقات مشخص شد افراد مهاجری که لهجه خارجی دارند اغلب به عنوان افراد باهوش کمتری در نظر گرفته میشوند و احتمال کمتری دارد مشاغلی را که برای آن واجد شرایط هستند به دست آورند. همچنین هنوز هم سوگیریهای مشابهی در مورد گویشهایی که معتبر تلقی نمیشوند، مانند انگلیسی جنوبی در ایالات متحده، و یا در مورد افراد ناشنوا که از زبان اشاره استفاده میکنند و افرادی که دارای اختلالات گفتاری مانند لکنت هستند، وجود دارد.
این سوگیریها عمیقاً در ساختار اجتماع مضر هستند و اغلب منجر به فرضیات نژادپرستانه و جنسیتی میشوند و بارها و بارها ثابت شدهاست که بیاساس هستند. در پایان به نتیجه زیر میرسیم.
زبان روان به تنهایی دلالت بر ذات انسانی ندارد:
آیا هوش مصنوعی هرگز حساس خواهد شد؟ این پرسش مستلزم بررسی عمیق است و فیلسوفان دههها در مورد آن فکر کردهاند. با این حال، آنچه محققان تشخیص دادهاند این است که وقتی یک مدل زبان به شما میگوید چه احساسی دارد، نمیتوانید به سادگی اعتماد کنید. کلمات میتوانند گمراه کننده باشند، و اشتباه کردن گفتار روان با تفکر روان بسیار آسان است.