مدتها قبل از ظهور چت جیپیتی، مارکوس نخستین برنامه هوش مصنوعی خود را در دبیرستان طراحی کرد؛ نرمافزاری برای ترجمه لاتین به انگلیسی، و پس از سالها مطالعه و تحقیق در زمینه روانشناسی کودک، شرکت Geometric Intelligence را که در زمینه یادگیری ماشینی فعالیت داشت، تاسیس کرد. شرکتی که بعدها توسط اوبر خریداری شد. اگرچه وی در ماه مارس به همراه ایلان ماسک و بیش از هزار چهره شاخص، نامه توقف توسعه هوش مصنوعی برای شش ماه را امضا کرد، اما امضای وی پای بیانیهای که اخیرا توسط متخصصان هوش مصنوعی از جمله سم آلتمن صادر شد و سروصدای زیادی را بهپا کرد، مشاهده نمیشود. در این بیانیه، امضاکنندگان تاکید کردند که رهبران کشورهای جهان باید برای کاهش احتمال خطر انقراض بشریت توسط هوش مصنوعی، تدابیری بیندیشند. به گفته این افراد، مقابله با تهدیدات هوش مصنوعی باید یک اولویت جهانی در کنار سایر اولویتها و خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای باشد. اما نکته جالب اینجاست که امضاکنندگان این بیانیه، خود در حال طراحی سیستمهای هوش مصنوعی هستند.
مارکوس نیز ضمن اشاره به این موضوع، عنوان کرد که اگر واقعا فکر میکنید که هوش مصنوعی خطرناک است، چرا روی آن کار میکنید. این سوالی است که باید از خود پرسید. مارکوس معتقد است به جای تمرکز روی مسائل و سناریوهای دور از ذهن همچون انقراض بشریت، باید روی خطرات واقعی و پنهان این فناوری متمرکز شد. وی افزود: «ممکن است افراد بخواهند با استفاده از این فناوری، در بازارها اختلال ایجاد کنند.» از سوی دیگر، این استاد دانشگاه از تاثیرات هوش مصنوعی بر دموکراسی نیز ابراز نگرانی کرد. در حال حاضر، ابزارهای هوش مصنوعی میتوانند عکسهای جعلی و فیلمهای تقلبی را با هزینههایی بسیار پایین، تولید کنند. در نتیجه، برندگان انتخابات افرادی خواهند بود که در انتشار اطلاعات نادرست بهتر عمل میکنند و این افراد ممکن است قوانین را تغییر دهند و دموکراسی را به چالش بکشند. وی افزود: «دموکراسی با داشتن اطلاعات درست و تصمیمگیری خوب است. اگر کسی نداند چه چیزی را باید باور کند، پس چگونه میتوان به دموکراسی رسید.» نویسنده کتاب «Rebooting AI» معتقد است که ما نباید امیدمان را از دست دهیم چرا که افقهای روشنی پیشرو داریم. وی گفت: من احساس میکنم که ما هنوز آماده نیستم و آسیبهایی در این راه وجود دارد که نیازمند تغییر شرایط بازی و همچنین توجه جدی به وضع قوانین است.