رسانه اینترنتی دیدوشنو
سخنرانی تد (ted talk ) یک درخواست فلسفی برای بزرگترین مشکلات ما
بازدید 1199
ریحانه رحیمی 569 روز پیش

سخنرانی تد (ted talk ) یک درخواست فلسفی برای بزرگترین مشکلات ما از نیک بوستروم

 

موضوع: یک در خواست فلسفی برای بزرگترین .

سخنران : نیک بوسترم

دسته بندی: سخنرانی تد

زمان : 16 دقیقه

سخنرانی تد:یک در خواست فلسفی برای بزرگترین از نیک بوستروم 

نیک بوستروم ، فیلسوف و فراانسانیست آکسفورد آینده بشریت را بررسی می کند و می پرسد که آیا ممکن است ماهیت بنیادی بشریت را برای حل ذاتی ترین مشکلات خود تغییر دهیم؟ این سخنرانی در یک کنفرانس رسمی TED ارائه شد و توسط سایت دیدوشنو بصورت زیر نویس فارسی درآمده و بصورت رایگان در اختیار شما قرار گرفته است . درباره سخنران : نیک بستروم · فیلسوف نیک بستروم روی س onالات بزرگی کار می کند: برای بهینه سازی چشم اندازهای بلند مدت ما ، به عنوان افراد و به عنوان یک گونه ، چه کاری باید انجام دهیم؟ چرا باید این سخنرانی را گوش کنی نیک بوستروم استاد دانشگاه آکسفورد است ، جایی که او ریاست انستیتو آینده انسانیت ، یک گروه تحقیقاتی از ریاضیدانان ، فیلسوفان و دانشمندان را بر عهده دارد که وظیفه بررسی تصویر بزرگ برای وضعیت انسان و آینده آن را دارند. از وی بعنوان یکی از مهمترین اندیشمندان عصر ما یاد شده است. به عنوان یک فیلسوف ، بوستروم آینده ای پر از پیشرفت انسان ، فناوری نانو و هوش ماشین را مدتها قبل از اینکه به نگرانی های اصلی تبدیل شوند ، تصور می کرد. از استدلال شبیه سازی معروف او - که برخی از پیامدهای قابل توجه رد این ایده ماتریکس را که انسان در یک شبیه سازی رایانه ای زندگی می کنند - مشخص کرد تا کار خود در مورد خطر وجودی ، او با استفاده از ابزار فلسفه به هر دو امر اجتناب ناپذیر و حدس و گمان نزدیک می شود ، نظریه احتمال و تحلیل علمی. از بستروم به عنوان یکی از اندیشمندان جهانی 2015 سیاست خارجی مورد تقدیر قرار گرفت. کتاب فوق العاده هوش این ایده شوم را پیش می برد که "اولین ماشین فوق العاده هوشمند آخرین اختراعی است که بشر تاکنون به آن احتیاج داشته است."

نیک بوستر

متولد : 10 مارس 1973 
احل : سوئد 
فیلسوف 
نویسنده 

یک درخواست فلسفی برای یزرگترین مشکلات

نیک بوستر ؛ سوئدی: Niklas Boström؛ فیلسوف سوئدی الاصل در دانشگاه آکسفورد است که به دلیل کارش در مورد ریسک وجودی شناخته شده است. اخلاق ارتقای انسانی، خطرات ابرهوشی، و آزمون معکوس. در سال 2011، او برنامه آکسفورد مارتین بر روی تأثیرات فناوری آینده را تأسیس کرد،  و مدیر مؤسس مؤسسه آینده بشریت  در دانشگاه آکسفورد است. در سال 2009 و 2015، او در فهرست 100 متفکر برتر جهانی فارین پالیسی قرار گرفت. بوستروم نویسنده بیش از 200 مقاله است،  و دو کتاب نوشته و دو کتاب دیگر را ویرایش کرده است. دو کتابی که او تالیف کرده است، تعصب انسان‌دوستانه: تأثیرات انتخاب مشاهدات در علم و فلسفه (2002) و ابرهوش: مسیرها، خطرات، استراتژی‌ها (2014) هستند. Superintelligence یکی از پرفروش‌ترین کتاب‌های نیویورک تایمز بود، توسط ایلان ماسک و بیل گیتس در میان دیگران توصیه شد و به رایج شدن اصطلاح «ابر هوش» کمک کرد. بوستروم معتقد است که ابرهوش، که او آن را به عنوان “هر عقلی که تقریباً در همه حوزه های مورد علاقه از عملکرد شناختی انسان فراتر می رود” تعریف می کند، نتیجه بالقوه پیشرفت در هوش مصنوعی است. او ظهور ابر هوش را بالقوه بسیار خطرناک برای انسان می‌داند، اما با این وجود این ایده را رد می‌کند که انسان‌ها در متوقف کردن اثرات منفی آن ناتوان هستند. که تمام A.I. توسعه باید دنبال شود.

میانگین امتیازات ۵ از ۵
از مجموع ۱ رای

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Solverwp- WordPress Theme and Plugin