سایت تخصصی ویژه طرح جابر،کاملترین طرح های جابر اول تا ششم شامل: جمع آوری وطبقه بندی ، نمایش علمی(مدل،تحقیق،نمایش)و آزمایش را با بهترین عنوان و محتوا ،قابل ویرایش به صورت ورد،pdf و شامل تمام موارد طرح جابر نظیر عنوان،متن،تعریف،شرح تحقیق،تحقیق زمینه ای،نتیجه گیری،منابع،سپاس گذاری،کارنما،راهنمای کارتون پلاست،فونت و تیتربندی،عکس و... با مناسب ترین قیمت و دانلود فوری وگارانتی وپشتیبانی رایگان در ایتا 09034840420.

بزرگان درباره هوش مصنوعی چه دیدگاهی دارند؟
4.8 /5 20 5 1
بزرگان درباره هوش مصنوعی چه دیدگاهی دارند؟
بزرگان درباره هوش مصنوعی چه دیدگاهی دارند؟
 
حمیدرضا تائبی/ ماهنامه شبکه - شماره 173
نگرانی از هوش‌ مصنوعی موضوعی نیست که توسط یک فرد یا یک سازمان یا جریان خاصی به وجود آمده باشد. دانشمندان و بزرگان فناوری هر یک در مقاطع زمانی مختلف نگرانی خود را از بابت آن اعلام کرده‌اند. نکته جالبی در صحبت‌های این افراد وجود دارد، هر یک از آن‌ها از دریچه دید خود به آن نگاه کرده‌اند، اما همگی متفق‌القول هستند که هوشمندی بیش از اندازه هوش‌ مصنوعی دردسرهای جدی را به همراه خواهد داشت. در ادامه، نگاهی به دیدگاه‌های این افراد خواهیم داشت.

تاریخ: پانزدهم ژوئن 2014 
صاحب نظر: استفان هاوکینگ 
دیدگاه: هوش مصنوعی  یک خطر واقعی است. 
فیزیک‌دان معروف در پانزدهم ژوئن سال گذشته میلادی در برنامه تلویزیونی شبکه HBO به‌نام Last Week Tonight شرکت کرد و دیدگاه‌های خود را درباره هوش‌ مصنوعی به سمع و نظر مخاطبان این برنامه رساند. او در این برنامه تلویزیونی گفت‌و‌گوی عمیقی را با جان اولیور انجام داد. مهم‌ترین محور این گفت‌وگو در ارتباط با هوش‌ مصنوعی بود. جان اولیور از هاوکینگ سؤال کرد: «همانند بسیاری از مصنوعات هوشمند، آیا هوش‌ مصنوعی برای ما مضر یا اصلاً کشنده است؟» هاوکینگ در پاسخ به او گفت: «هوش‌ مصنوعی در آینده‌ای نه چندان دور به یک خطر واقعی تبدیل می‌شود.» اولیور در ادامه از هاوکینگ سؤال کرد: «چرا من نباید از مبارزه با یک روبات هیجان‌زده شوم؟» هاوکینگ یک پاسخ علمی به او داد: «شما در این مبارزه بازنده خواهید بود.» اولیور در ادامه به هاوکینگ گفت اگر این ابرکامپیوتر قدرتمند وجود نداشت، شما نمی‌توانستید با من به گفت‌وگو بپردازید. هاوکینگ (یا به عبارت دقیق‌تر روبات هاوکینگ‌نما) به او جواب داد: «تو یک احمق هستی.» هاوکینگ در پایان صحبت‌های خود هشدار داد، این احتمال وجود دارد که روبات‌ها راهی برای ارتقا و پیش‌رفت خود پیدا کنند، پیش‌رفتی که دقیقاً به نفع انسان‌ها نباشد. 
 
تاریخ: دوم مه 2014 
صاحب نظر: استیو وزنیاک
دیدگاه: ما بیش از اندازه ماشین‌ها را بزرگ کرده‌ایم.
«هر کاری که انجام می‌دهید باید حداقل کمی تفریح در آن وجود داشته باشد، اما هر ایده‌ای که می‌تواند جهان ما را تغییر ‌دهد، لزوماً با اهمیت نیست. من عاشق فناوری هستم و خود شخصاً آن ‌را مورد آزمایش قرار می‌دهم. من حداقل پنج آی‌فون و چند تا گوشی آندروییدی دارم. من آینده‌ای را تصور می‌کنم که ماشین‌ها بتوانند به فرزندان ما آموزش دهند، اما بیش از اندازه هوش‌ مصنوعی را هوشمند کرده‌ایم و این اتفاق از مدت‌ها قبل آغاز شده است. ماشین‌ها دویست سال پیش برنده شده‌اند. ما آن‌ها را بیش از اندازه مهم کرده‌ایم و همین موضوع باعث می‌شود تا هوش‌ مصنوعی تهدیدی جدی برای بقای ما باشد. در حال حاضر، خلاقیت مهم‌ترین ابزاری است که انسان‌ها در اختیار دارند. شبیه به افرادی همچون هاوکینگ و ماسک، من هم بر این باور هستم که آینده ترسناک و بسیار بسیار بدی در انتظار بشریت قرار دارد. اگر دستگاه‌هایی طراحی کنیم که مراقب تمام حالات ما باشد، سرانجام آن‌ها می‌توانند سریع‌تر از انسان‌ها فکر کنند و به‌راحتی از دست انسان‌ها خلاص شوند.» او در ادامه صحبت‌های خود افزود: «از این موضوع نگران هستم که روزگاری ما به حیوانات خانگی ماشین‌ها تبدیل شویم.»
 
تاریخ: هجدهم ژوئن 2014 
صاحب نظر: ایلان ماسک
دیدگاه: من نگران یک (نابودگر)  ترمیناتور هستم.
در مصاحبه‌ای که ایلان ماسک هجدهم ژوئن سال گذشته میلادی با CNBC داشت، اعلام کرد بیش از اندازه نگران هوش‌ مصنوعی است و این احتمال وجود دارد که هوش مصنوعی به چشم شیطان تبدیل شود. ماسک در ادامه صحبت‌های خود افزود: «فیلم‌های مختلفی در این زمینه وجود دارد، «ترمیناتور» یکی از آن‌ها است. نتایجی که در این فیلم‌ها نشان داده می‌شود، بسیار ترسناک است. ما باید اطمینان حاصل کنیم هوش‌ مصنوعی پیامدهای خوبی برای ما همراه دارد. اما این دیدگاه خوب یک عیب بزرگ نیز دارد. شما نمی‌توانید اطمینان حاصل کنید همه چیز خوب پیش می‌رود. در حال حاضر، تقلید از مغز انسان یک سرگرمی محسوب می‌شود، اما در آینده اوضاع رنگ دیگری به خود خواهد گرفت.» او در ادامه صحبت‌های خود افزود: «بهترین روش برای پیش‌گیری از چنین پیامدی پیاده‌سازی مکانیسم کنترل انسانی است.»
 
تاریخ: اول مه 2014
صاحب نظر: استفان هاوکینگ
دیدگاه: به ‌نظر می‌رسد برتری از آن هوش مصنوعی است. آیا ما هوش مصنوعی را آن ‌گونه که باید جدی گرفته‌ایم؟
استفان هاوکینگ، مدیر تحقیقات ریاضیات کاربردی و فیزیک‌دان کمبریج و برنده جایزه فیزیک بنیادی در زمینه گرانش کوانتومی در سال 2012؛ استوارت راسل، پروفسور علوم کامپیوتر در دانشگاه برکلی کالیفرنیا و یکی از نویسندگان کتاب «نگرش مدرن به هوش مصنوعی»؛ مکس تگ مارک، پروفسور فیزیک در مؤسسه تحقیقاتی MIT و نویسنده ریاضیات جهان ما؛ فرانک ولیچک، پروفسور فیزیک در MIT و برنده جایزه نوبل 2004 به خاطر کار روی نیروی هسته قوی، در نامه‌ای که سال 2014 منتشر کردند، نوشتند: «طراحی موفقیت‌آمیز هوش مصنوعی بزرگ‌ترین رخداد تاریخ بشریت است. اما متأسفانه این اختراع می‌تواند پایان راه بشریت باشد، مگر آن‌که یاد بگیریم چگونه از به وجود آمدن خطر پیشگیری‌ کنیم.» 
 
تاریخ: دوم دسامبر 2014 
صاحب نظر: استفان هاوکینگ
دیدگاه: هوش مصنوعی می‌تواند بدترین کابوس انسان‌ها باشد.
پروفسور استفان هاوکینگ، دانشمند برجسته انگلیسی، می‌گوید: «تلاش برای ساخت ماشین‌هایی که توانایی فکر کردن دارند، تهدیدی جدی برای موجودیت انسان‌ها به شمار می‌رود. تلاش برای طراحی هوش‌ مصنوعی کامل (هوشمندی کامل اکنون در اختیار انسان‌ها قرار دارد) به معنای تلاش برای پایان دادن به بشریت است.» پروفسور هاوکینگ بر این باور است که شکل فعلی و ابتدایی هوش مصنوعی که ما این روزها از آن استفاده می‌کنیم، برای ما کارآمد و قابل قبول است. اما نگرانی او از بابت ساخت ماشین‌هایی است که جلوتر از انسان‌ها باشند. هاوکینگ در بخشی از صحبت‌های خود می‌گوید: «هوش‌ مصنوعی این توانایی را دارد که خود را خاموش و اقدام به بازطراحی قدرتمندتری از خود کند. اما در نقطه مقابل تکامل بیولوژیکی انسان‌ها قرار دارد که با سرعت کمی همراه است و نمی‌تواند با هوش‌ مصنوعی به رقابت بپردازد. اما مردم از این موضوع اطلاع ندارند. در حالی‌ که در کوتاه‌مدت تأثیر هوش‌ مصنوعی به کنترلی بستگی دارد که روی آن اعمال می‌شود. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟»
 
تاریخ: سوم اوت 2014 
صاحب نظر: ایلان ماسک
دیدگاه: خطر هوش‌ مصنوعی از سلاح‌های هسته‌ای بیش‌تر است.
کارآفرین بزرگی که به شکل‌های مختلف فناوری را در بخش‌هایی همچون ماشین‌های برقی مورد استفاده قرار داده است، نگرانی عمیقی نسبت به هوشمندی فوق‌العاده فناوری دارد. ایلان ماسک میلیاردر و مخترع بزرگی که معتقد است، در آینده انرژی خورشیدی و ماشین‌های برقی انسان‌ها را به خانه دوم آن‌ها مریخ می‌برد، می‌گوید آینده خطرناکی را مشاهده می‌کند که پر از ماشین‌های فوق‌العاده هوشمند است. او در توییتی که در سوم اوت سال گذشته میلادی منتشر کرد، اعلام کرد: «ما باید بیش از اندازه مراقب هوش‌ مصنوعی باشیم. هوش‌ مصنوعی این ظرفیت را دارد که خطرناک‌تر از سلاح‌های هسته‌ای باشد.» 
 
تاریخ: هفتم ژوییه 2015
صاحب نظر: لینوس توروالدز 
دیدگاه: خوش‌بین؛ هوش مصنوعی موضوع نگران‌کننده‌ای نیست.
تاکنون نظرات کارشناسانی را خواندیم که همگی از بابت قدرت مهارنشدنی هوش‌ مصنوعی ابزار نگرانی کرده‌اند. اما بد نیست بدانید، لینوس توروالدز که به خاطر طراحی هسته لینوکس معروف شده است، نظر دیگری در این زمینه دارد. او می‌گوید افرادی که از هوش‌ مصنوعی هراس دارند، انسان‌های ساده‌لوحی هستند. او در صحبت‌های خود به نقاط قوت هوش‌ مصنوعی اشاره می‌کند و می‌گوید ما هیچ‌گاه شاهد ظهور هوش مخربی همچون اسکای‌نت (در فیلم «ترمیناتور») نخواهیم بود. او معتقد است، کارشناسان این توانایی را دارند تا از هوش‌ مصنوعی در زمینه برنامه‌ریزی یا ترجمه زبان‌ها به یکدیگر استفاده کنند. او بر این باور است که برنامه‌هایی شبیه Google Now یا سیری چیزی بیش از یک خیال‌بافی نیستند و این برنامه‌ها ظرفیت آن ‌را ندارند تا در مقام هوش انسانی به فعالیت‌های خود بپردازند. 
 
تاریخ: بیست و هشتم ژانویه 2015 
صاحب نظر: بیل گیتس
دیدگاه: نگران قدرت مهارنشدنی هوش‌ مصنوعی هستم.
نزدیک به هشت ماه پیش جلسه پرسش و پاسخی با حضور بیل گیتس در Reddit انجام شد. بیل گیتس جدا از آن‌که بنیان‌گذار مایکروسافت بوده و انسان هوشمند عصر ما نام گرفته است، زمانی ‌که صحبت از نجات دنیا می‌شود، حاضر است پول خود را صرف این ‌کار کند. زمانی ‌که صحبت از هوش‌ مصنوعی به میان می‌آید، بیل‌ گیتس همچون استفان هاوکینگ و ایلان ماسک، مرد آهنین تسلا موتورز، نگران است که هوش‌ مصنوعی به تهدیدی برای بشریت تبدیل شود. در جلسه پرسش و پاسخی که چهارشنبه بیست و هشتم ژوئن سال جاری میلادی توسط Reddit برگزار شد، بیل ‌گیتس گفت: «می‌ترسم هوش‌ مصنوعی به چنان ظرفیت و پتانسلی دست یابد که داستان‌های فیلم‌های «ترمیناتور» و سه‌گانه «ماتریکس» به واقعیت تبدیل شود.» او صحبت‌‌های خود را این ‌گونه ادامه داد: «من در همان کمپینی هستم که نگران هوش‌ مصنوعی است. ماشین‌ها کارهای عادی زیادی برای ما انجام می‌دهند، در نتیجه نمی‌توانند زیاد باهوش باشند. کنترل کردن آن‌ها ایده خوبی است. اما بعد از گذشت چند دهه، هوش‌ مصنوعی به‌قدری قدرتمند خواهد شد که باید درباره آن نگران باشیم. من با ایلان ماسک و دیگران در این مورد موافق هستم، اما متوجه نمی‌شوم چرا دیگران از این بابت نگران نیستند.»
 
تاریخ: بیست و هشتم ژوییه 2015
صاحب نظر: استوارت راسل
دیدگاه: از بابت مسابقه تسلیحاتی ساخت سلاح‌های مبتنی بر هوش مصنوعی نگران است.
سایت NPR مصاحبه‌ای را با استوارت راسل، پژوهش‌گر هوش‌ مصنوعی، در بیست و هشتم ژوییه ترتیب داد. در این مصاحبه، راسل از بابت ساخت سلاح‌های هوشمندی هشدار داد که مستقل از انسان‌ها کار می‌کنند. راسل صحبت‌های خود را این ‌گونه آغاز کرد یک هواپیمای بدون سرنشین وسیله خودرانی است که از راه دور کنترل می‌شود. در این‌جا یک انسان این هواپیما را کنترل می‌کند و با استفاده از دوربین نصب شده روی هواپیما به مشاهده مناظر می‌پردازد. انسان تصمیم ‌می‌گیرد هدف چیست و آیا باید به هدف شناسایی شده موشکی شلیک شود یا خیر. اما برای یک سلاح هوشمند اوضاع به ‌گونه دیگری رقم می‌خورد، به‌ طوری که سلاح خود تصمیم می‌گیرد اکنون باید چه کاری انجام دهد. سلاح هوشمند خود تصمیم می‌گیرد به کجا برود. یک سلاح هوشمند خود تصمیم می‌گیرد هدفش را انتخاب کند و در نهایت خود تصمیم می‌گیرد چه کسی را باید به قتل برساند. در حال حاضر، در کشور کره جنوبی روبات‌هایی در بخش‌های غیر نظامی مستقر شده‌اند که می‌توانند در فاصله دو مایلی یک انسان را دنبال و با دقت بسیار بالایی به آن شلیک کنند. این ماشین در دو وضعیت مورد استفاده قرار می‌گیرد. در حالت نخست، برای کشتن یک انسان نیازمند یک مجوز انسانی است. اما اگر از این حالت تغییر وضعیت دهد، ماشین در وضعیت خودکار قرار می‌گیرد و خود اقدام به کشتن یک انسان می‌کند. 
 
  • مشخصات
  • دانلود
4.7 /5 20 5 1
نظرات خود را اینجا بنویسید

مقاله و تحقیق رایگان بزرگان درباره هوش مصنوعی چه دیدگاهی دارند؟ Average rating: 4.54058478779187, based on 89 reviews from $0.0000 to $0.0000
کانال ایتا: https://eitaa.com/tarhejaberr