logo-samandehi
زبان و هوش مصنوعی

زبان و هوش مصنوعی

هوش مصنوعی گوگل این توانایی را دارد که یک نقص شناختی را در انسان برجسته کند.

در اثر پیشرفت تکنولوژی بسیاری از رفتارهای انسان و رفتارهای ماشین‌های هوش مصنوعی مشابهت زیادی یافته است تا جایی که مرز تشخیص تفاوت آن‌ها هر روز باریک‌تر و باریک‌تر می‌شود. موارد بسیاری مشاهده شده که ذهن انسان موفق به تشخیص تفاوت بین یک موضوع مطرح شده از جانب تفکری انسانی و تفکری ماشینی نشده است. یکی از این موارد مقوله زبان است.

وقتی با جمله ای روبرو می‌شویم مانند « سلام، رفیق!»، صمیمیت موجود در آن و تجربه گذشته ما را به این باور می‌رساند که توسط یک انسان  نوشته یا گفته شده است. اما امروزه بسیاری از جملاتی که بطور قابل توجهی مملو از احساسات انسانی است در واقع توسط سیستم‌های هوش مصنوعی تولید می‌شوند. نکته قابل توجه این است که هوش مصنوعی بدون هیچ محدودیتی قادر به فراگیری تمام رفتارهای انسانی و حتی اخیراً احساسات انسانی است. همین موضوع نقش مهمی دارد در عدم تشخیص ما در تفاوت بین جملاتی که توسط انسان و یا ماشین گفته شده است.

مردم آنقدر عادت دارند که تصور کنند زبان روان (منظور گفتگوی روان است) ناشی از تفکر و احساس انسانی است که درک شواهد خلاف آن دشوار است. این سوال مطرح می‌شود که انسان‌ها چطور می‌توانند در این قلمرو ناشناخته از دنیای هوش مصنوعی پیش بروند؟!

به دلیل تمایل مداوم به ارتباط بین بیان روان با تفکر روان، طبیعی است – اما بالقوه گمراه کننده – که فکر کنیم اگر یک مدل هوش مصنوعی بتواند خود را روان بیان کند، به این معنی است که درست مانند انسان‌ها فکر و احساس می‌کند.

همین طرز فکر موجب مطرح شدن ادعاهایی در این باره می‌گردد. بطور مثال، یکی از مهندسان سابق گوگل اخیراً ادعا کرده است که سیستم هوش مصنوعی گوگل LaMDA دارای احساسی از خود است، زیرا می‌تواند به شیوایی متنی درباره احساسات ادعا شده خود تدوین کند. این رویداد و پوشش رسانه‌ای متعاقب آن منجر به نوشته شدن مقاله‌های متعدد و همچنین انتشار مطالبی گردید که شبهاتی را درباره درستی و نادرستی این ادعا مطرح می‌کردند ازجمله اینکه مدل‌های محاسباتی زبان انسان حساس هستند، یعنی قادر به تفکر، احساس و تجربه هستند.

و اما چرا انسان‌ها به این سادگی در دام این نقص شناختی می‌افتند؟! در ادامه به این موضوع می‌پردازیم که چه چیزی باعث می‌شود انسان‌ها فرض کنند موجودی که می‌تواند زبان را روان استفاده کند، باهوش، آگاه یا دارای احساس است.

استفاده از هوش مصنوعی برای تولید زبانی شبیه به انسان:

تشخیص متن تولید شده توسط مدل هایی مانند LaMDA گوگل از متن نوشته شده توسط انسان دشوار است. این دستاورد چشم‌گیر نتیجه چند دهه برنامه‌ریزی برای ساخت مدل‌هایی است که زبان دستوری و معنادار را تولید می‌کنند.

نسخه‌های اولیه ساخته شده در دهه 1950، معروف به مدل‌های n-gram، به سادگی تعداد عبارات خاصی را شمارش می‌کردند و از آنها برای حدس زدن کلماتی که احتمالاً در یک گروه کلمه قرار می‌گرفتند استفاده می‌کردند. مشابه رفتاری که مغز انسان به طور ناخودآگاه بعد از فراگیری زبان انجام می‌دهد. به عنوان مثال، کاملاً برای ما واضح است که مواجهه با عبارت « کره بادام زمینی و مارمالاد» محتمل‌تر از « کره بادام زمینی و آناناس» است. اگر به زبان انگلیسی تسلط کافی داشته باشید عبارت « کره بادام زمینی و مارمالاد» را بارها و بارها می‌خوانید یا به گوشتان می‌رسد اما ممکن است هرگز با عبارت « کره بادام زمینی و آناناس» مواجه نشوید.

مدل‌های امروزی مجموعه ای از داده‌ها و قوانینی هستند که زبان انسان را تقلید می‌کنند. اما شیوه عملکرد آن‌ها در به دنبال هم آوردن کلمات تفاوت‌های زیادی با مغز انسان دارد. اول باید این نکته را در نظر گرفت که اطلاعات و آموزش آن‌ها بر اساس اطلاعات موجود در اینترنت است. دوم اینکه آن‌ها نه تنها روابط بین کلماتی که به هم نزدیک هستند و کنار هم در یک گروه قرار گرفته‌اند را دریافته‌اند بلکه ارتباط بین کلماتی که از هم فاصله دارند و در یک عبارت بکار نرفته‌اند را نیز یاد می‌گیرند و درواقع می‌توانند بین آن‌ها نیز ارتباطی برقرار کنند. نکته سوم این است که این ماشین‌ها از طریق تعداد بی‌شماری به اصطلاح «شستی» داخلی تنظیم می‌شوند. آنقدر زیاد که حتی برای مهندسانی که آنها را طراحی می‌کنند نیز درک اینکه چرا آن‌ها یک دنباله از کلمات را به جای دیگری ایجاد می‌کنند دشوار است.

با این حال وظیفه این مدل‌ها در زمینه پیش‌بینی اینکه بعد از هر کلمه چه کلمه دیگری باید قرار گیرد همچنان مانند برنامه ریزی دهه 1950 باقی مانده است. امروزه آن ها آنقدر در این کار خوب هستند که تقریباً تمام جملاتی که تولید می‌کنند روان و دستوری به نظر می‌رسند. اما راه‌هایی نیز وجود دارد که بشود تفاوت زبان بکار گرفته شده توسط آن‌ها و زبان بکار رفته توسط انسان را تشخیص داد. کلید این قفل در منطق است. یعنی وجود رابطه‌عقلانی بین کلمات و جملات یک متن فارق از میزان روان بودن آن. به مثالی که در ادامه آمده توجه کنید.

کره بادام زمینی و آناناس؟

در یک پژوهش از یک مدل زبان بزرگ، GPT-3، خواسته شده که جمله “کره بادام زمینی و آناناس___” را تکمیل کند و نتیجه جالبی بدست آمده است: « کره بادام زمینی و آناناس ترکیبی عالی هستند. طعم شیرین و خوش طعم کره بادام زمینی و آناناس کاملاً مکمل یکدیگر هستند

اگر این جملات توسط یک انسان عنوان می‌شد، استنباط چنین نتیجه‌ای که آن فرد کره بادام زمینی و آناناس را با هم امتحان کرده، نظری ایجاد کرده‌ و آن را با خواننده در میان گذاشته است، دور از ذهن نبود. اما چگونه GPT-3 به این پاراگراف رسید؟

با تولید کلمه‌ای متناسب با زمینه‌ای که به او ارائه کردیم و سپس یکی دیگر و سپس یکی دیگر. این مدل هرگز آناناس را ندیده، لمس نکرده یا مزه نکرده است – فقط تمام متون موجود در اینترنت را که به آنها اشاره می‌کنند پردازش کرده است. و با این حال، خواندن این پاراگراف می‌تواند ذهن انسان – حتی ذهن یک مهندس گوگل – را به تصور این که GPT-3 به عنوان موجودی هوشمند می تواند در مورد غذاهایی چون کره بادام زمینی و آناناس استدلال کند، سوق دهد.

مدل های بزرگ زبان هوش مصنوعی می‌توانند حتی در مکالمات روان هم شرکت کنند. با این حال، آن ها هیچ زمینه کلی‌‌ای برای برقراری ارتباط ندارند مانند آنچه مغز انسان بدون تفکر انجام می‌دهد، بنابراین عبارات آن ها اغلب از ترفندهای ادبی رایج پیروی می‌کند، که از متونی که آن ها آموزش دیده‌اند استخراج شده است. برای مثال، اگر با موضوع «ماهیت عشق» روبرو شود،یک مدل ممکن است جملاتی با این مضمون ایجاد کند که عشق بر همه چیز غلبه دارد. سیستم مغز انسان ممکن است فرد شنونده این جملات را وادار کند که این کلمات را به عنوان نظر مدل در مورد موضوع تفسیر کند، اما آن ها در واقع فقط یک توالی قابل قبول از کلمات هستند.اما تفاوت اصلی کجاست؟!

درک مفاهیم نهفته در کلمات:

مغز انسان برای درک مفاهیم نهفته در کلمات برنامه‌ریزی شده است. هر بار که وارد مکالمه می‌شوید، ذهن شما به طور خودکار یک مدل ذهنی از شریک گفتگوی شما می‌سازد. سپس از کلماتی که آن فرد می‌گوید استفاده می‌کند تا مدل ذهنی را با اهداف، احساسات و باورهای آن شخص تطبیق دهد.

فرآیند پرش از کلمات به یک مدل ذهنی، یکپارچه است و هر بار که یک جمله کامل دریافت می‌کند تحریک می‌شود. این فرآیند شناختی باعث صرفه جویی در زمان و تلاش شما در زندگی روزمره می‌شود و تعاملات اجتماعی شما را تا حد زیادی تسهیل می‌کند.این درحالی است که سیستم‌های هوش مصنوعی از همچین توانایی در ساخت مدل های ذهنی یکپارچه برخوردار نیستند. به طور مثال به نتیجه دریافت شده از مدل GPT-3 توجه کنید این عبارت پس از پردازش اطلاعات درباره کلمات متفاوت و بدون الگوی یکپارچه بدست آمده است:

«کره بادام زمینی و آناناس با هم طعم عالی دارند زیرا…» و زمانی که از او خواسته شد تا جمله را تکمیل کند به این شکل ادامه داد: « کره بادام زمینی و آناناس در کنار هم طعم عالی دارند زیرا هر دو طعم آجیلی دارند. کره بادام زمینی صاف و خامه ای است و به خنثی شدن بافت آناناس کمک می‌کند.»

متن بالا مانند مثال اول ما در مورد آناناس، روان است، اما این بار مدل چیزی به وضوح کمتر معقولانه می‌گوید. همین امر موجب می‌گردد ذهن انسان شروع به شک کردن کند که GPT-3 هرگز کره بادام زمینی و آناناس را امتحان نکرده است؟! مسلماً خیر.

در نهایت به این نکته می‌پردازیم که این نقص شناختی مغز انسان ممکن است موجب چه قضاوت‌ها و اشتباهاتی گردد.

نسبت دادن هوش به ماشین‌ها و انکار آن درباره انسان:

طنز غم انگیز این است که همان سوگیری شناختی که باعث می‌شود مردم انسانیت را به GPT-3 نسبت دهند، می‌تواند باعث شود که آنها با انسان های واقعی به شیوه‌های غیرانسانی رفتار کنند. علم زبان شناسی اجتماعی _ فرهنگی به معنی مطالعه زبان در زمینه اجتماعی و فرهنگی آن، نشان می‌دهد که فرض یک پیوند بسیار محکم بین بیان روان و تفکر روان می‌تواند منجر به سوگیری علیه افرادی شود که متفاوت صحبت می‌کنند. به عنوان مثال در یکی از این تحقیقات مشخص شد افراد مهاجری که لهجه خارجی دارند  اغلب به عنوان افراد باهوش کمتری در نظر گرفته می‌شوند و احتمال کمتری دارد مشاغلی را که برای آن واجد شرایط هستند به دست آورند. همچنین هنوز هم سوگیری‌های مشابهی در مورد گویش‌هایی که معتبر تلقی نمی‌شوند، مانند انگلیسی جنوبی در ایالات متحده، و یا در مورد افراد ناشنوا که از زبان اشاره استفاده می‌کنند و افرادی که دارای اختلالات گفتاری مانند لکنت هستند، وجود دارد.

این سوگیری‌ها عمیقاً در ساختار اجتماع مضر هستند و اغلب منجر به فرضیات نژادپرستانه و جنسیتی می‌شوند و بارها و بارها ثابت شده‌است که بی‌اساس هستند. در پایان به نتیجه زیر می‌رسیم.

زبان روان به تنهایی دلالت بر ذات انسانی ندارد:

آیا هوش مصنوعی هرگز حساس خواهد شد؟ این پرسش مستلزم بررسی عمیق است و فیلسوفان دهه‌ها در مورد آن فکر کرده‌اند. با این حال، آنچه محققان تشخیص داده‌اند این است که وقتی یک مدل زبان به شما می‌گوید چه احساسی دارد، نمی‌توانید به سادگی اعتماد کنید. کلمات می‌توانند گمراه کننده باشند، و اشتباه کردن گفتار روان با تفکر روان بسیار آسان است.

 

پیمایش به بالا