Forwarded from عرصههای ارتباطی (Younes Shokrkhah)
#خبر #چهره #زوم #روزنامهنگاری
🔸 نگاه جان هارتلی به خبر
#جان_هارتلي (John Hartly) پژوهشگر سرشناس دانش ارتباطات میگويد: #خبر عمدتاً محصول تاريخ است و تاريخ خبر از قرن نوزدهم به بعد، به بررسی اين امر تبديل شده است كه چگونه عبارت "خبر براي مردم" به عبارت"خبر براي بازار" تغيير يافته است.
هارتلی معتقداست كه نحوه توليد خبر به نحوه توليد كالا شباهت يافته است و يكي از كالاهایی كه روزنامهها مايل به توليدآن هستند، خواننده است. و از آنجا كه روزنامهها نمیتوانند صرفاً با تكيه بر فروش خود به بقا ادامه دهند، خواننده را به آگهی دهنده میفروشند. به اين ترتيب هارتلی میكوشد تا نقش نيروهای بازار و به عبارت بهتر نقش سرمايه را بر حاصل كار روزنامهها نشان دهد چرخهای كه او مطرح میكند، توجه ما را به سوي منابع خبری روزنامهها معطوف میسازد و به اينكه چرا برخی از روزنامههای بزرگ تثبيت میشوند و چرا برخی از روزنامههای پرمحتوا از صحنه بيرون میروند.
به عقيده جان هارتلي، منابع خبری جايگزين در اقليت قرار گرفتهاند و كم كم از صحنه حذف میشوند، زيرا كه ديگر آن دوران آغازين قرن نوزدهم كه در آن فروش و نه آگهی، رمز بقای روزنامهها بود، سپري شده است (به علت كاهش يا محدوديت تيراژ) و اينك با روزنامههایی ارزان اما پر آگهی سر وكار داريم و به همين دليل است كه ديگر از آن دوران كه مشخصهاش راديكاليسم يا تندگرایی سياسی بود، دور شدهايم، حالا به جاي راديكاليسم سياسی با مقوله ارتباط مؤثر با مخاطبان بيشتر سر و كار داريم و حلقه وصل اين ارتباط، پول است. خوانندگان هم فقط همين منابع خبری مبتنی بر پول را در اختيار دارند و حتی اگر روزنامههای جانشين (Alternative Press ) بتوانند منتشر شوند و بخواهند به منابع خبری جانشين براي مردم تبديل شوند، نظام حاكم بر توزيع، كه در اختيار توزيع كنندگان كل است، اجازه چرخش اين نوع از منابع خبری را در مجاري توزيع نمیدهد و به اين ترتيب خوانندگان از دسترسی به اين دسته از منابع خبری محروم میمانند.
موضوعی كه هارتلی مطرح میكند در مورد خبرگزاريهای بينالمللي هم صادق است. اين خبرگزاريها در مقام منابع خبری كليدی اجازه ورود هرنوع خبر را به مجاری توزيع خود نمیدهند به ويژه اگر خبر- ولو به طرزی اندك- با منافع حاكم بر اين منابع خبری ناسازگار باشد.
با اين حساب، میتوان رابطه منبع خبر و مخاطب را رابطهای يکجانبه نه ارتباط متقابل و رضايت بخش- توصيف كرد كه از منبع خبر به سوی مخاطب جاری است و مخاطب بايد در صورت امكان از ميان آنچه به او ارائه- و در واقع تحميل- میشود، دست به انتخاب بزند.
افزون بر اين، منابع بينالمللي خبری بايد برحسب ظاهر هر آنچه را كه تازه و جديد است مخابره كنند اما در عمل فقط در شش حوزه مشخص گام برمیدارند.
هارتلي اين شش حوزه در مطبوعات بریتانیا را چنين برمیشمارد: سياست، اقتصاد، روابط خارجی، اخبار داخلی، اخبار مناسبتها و بالاخره ورزش.
🔸 نگاه جان هارتلی به خبر
#جان_هارتلي (John Hartly) پژوهشگر سرشناس دانش ارتباطات میگويد: #خبر عمدتاً محصول تاريخ است و تاريخ خبر از قرن نوزدهم به بعد، به بررسی اين امر تبديل شده است كه چگونه عبارت "خبر براي مردم" به عبارت"خبر براي بازار" تغيير يافته است.
هارتلی معتقداست كه نحوه توليد خبر به نحوه توليد كالا شباهت يافته است و يكي از كالاهایی كه روزنامهها مايل به توليدآن هستند، خواننده است. و از آنجا كه روزنامهها نمیتوانند صرفاً با تكيه بر فروش خود به بقا ادامه دهند، خواننده را به آگهی دهنده میفروشند. به اين ترتيب هارتلی میكوشد تا نقش نيروهای بازار و به عبارت بهتر نقش سرمايه را بر حاصل كار روزنامهها نشان دهد چرخهای كه او مطرح میكند، توجه ما را به سوي منابع خبری روزنامهها معطوف میسازد و به اينكه چرا برخی از روزنامههای بزرگ تثبيت میشوند و چرا برخی از روزنامههای پرمحتوا از صحنه بيرون میروند.
به عقيده جان هارتلي، منابع خبری جايگزين در اقليت قرار گرفتهاند و كم كم از صحنه حذف میشوند، زيرا كه ديگر آن دوران آغازين قرن نوزدهم كه در آن فروش و نه آگهی، رمز بقای روزنامهها بود، سپري شده است (به علت كاهش يا محدوديت تيراژ) و اينك با روزنامههایی ارزان اما پر آگهی سر وكار داريم و به همين دليل است كه ديگر از آن دوران كه مشخصهاش راديكاليسم يا تندگرایی سياسی بود، دور شدهايم، حالا به جاي راديكاليسم سياسی با مقوله ارتباط مؤثر با مخاطبان بيشتر سر و كار داريم و حلقه وصل اين ارتباط، پول است. خوانندگان هم فقط همين منابع خبری مبتنی بر پول را در اختيار دارند و حتی اگر روزنامههای جانشين (Alternative Press ) بتوانند منتشر شوند و بخواهند به منابع خبری جانشين براي مردم تبديل شوند، نظام حاكم بر توزيع، كه در اختيار توزيع كنندگان كل است، اجازه چرخش اين نوع از منابع خبری را در مجاري توزيع نمیدهد و به اين ترتيب خوانندگان از دسترسی به اين دسته از منابع خبری محروم میمانند.
موضوعی كه هارتلی مطرح میكند در مورد خبرگزاريهای بينالمللي هم صادق است. اين خبرگزاريها در مقام منابع خبری كليدی اجازه ورود هرنوع خبر را به مجاری توزيع خود نمیدهند به ويژه اگر خبر- ولو به طرزی اندك- با منافع حاكم بر اين منابع خبری ناسازگار باشد.
با اين حساب، میتوان رابطه منبع خبر و مخاطب را رابطهای يکجانبه نه ارتباط متقابل و رضايت بخش- توصيف كرد كه از منبع خبر به سوی مخاطب جاری است و مخاطب بايد در صورت امكان از ميان آنچه به او ارائه- و در واقع تحميل- میشود، دست به انتخاب بزند.
افزون بر اين، منابع بينالمللي خبری بايد برحسب ظاهر هر آنچه را كه تازه و جديد است مخابره كنند اما در عمل فقط در شش حوزه مشخص گام برمیدارند.
هارتلي اين شش حوزه در مطبوعات بریتانیا را چنين برمیشمارد: سياست، اقتصاد، روابط خارجی، اخبار داخلی، اخبار مناسبتها و بالاخره ورزش.
#هوشمصنوعی #جرایمسایبر
🔸پیامدهای دیپفیک در دنیای واقعی
از نظر #یوروپل (پلیس اتحادیه اروپا) #چتجیپیتی تنها یکی از حوزههای هوش مصنوعی است که میتواند بطور گسترده از سوی مجرمان استفاده شود. پیش از این نیز برخی فناوریهای جنجالی هوش مصنوعی مانند #دیپفیک آسیبهای جدی به جامعه رسانده بودند.
بطور مثال، یکی از پروندههای تخلفات اینترنتی درباره زنی ۱۸ ساله بوده است که در کمال ناباوری عکسهای پورن خود را در فضای مجازی در حال دست به دست شدن یافته است؛ آنهم در حالی که هرگز آن عکسها را نگرفته یا به اشتراک نگذاشته است. در واقع، صورت او در این تصاویر به کمک فناوریهای دیجیتالی به تصاویر بدن فرد دیگری اضافه شده است.
این زن در مصاحبه با یورونیوز گفت که آنچه روی داده برای او نتیجهای جز "حبس مادامالعمر" نداشته است.
گزارشی دیگر که در سال ۲۰۱۹ منتشر شد نیز نشان داد که ۹۶ درصد از محتوای دیپ فیکهای آنلاین، پورنوگرافیهای غیرقانونی است. گاه نیز از فناوری دیپفیک صوتی، برای تقلید صدای یک نفر با هدف کلاهبرداری از اعضای خانوادهاش استفاده شده است. یوروپل گزارش خود را با تاکید بر این نکته به پایان رسانده که برای مجریان قانون مهم است «در خط مقدم تحولات دنیای فناوری باقی بماند» تا بتوانند استفاده مجرمانه از هوش مصنوعی را پیشبینی و از وقوع آن جلوگیری کنند.
منبع دکتر یونس شکرخواه
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔸پیامدهای دیپفیک در دنیای واقعی
از نظر #یوروپل (پلیس اتحادیه اروپا) #چتجیپیتی تنها یکی از حوزههای هوش مصنوعی است که میتواند بطور گسترده از سوی مجرمان استفاده شود. پیش از این نیز برخی فناوریهای جنجالی هوش مصنوعی مانند #دیپفیک آسیبهای جدی به جامعه رسانده بودند.
بطور مثال، یکی از پروندههای تخلفات اینترنتی درباره زنی ۱۸ ساله بوده است که در کمال ناباوری عکسهای پورن خود را در فضای مجازی در حال دست به دست شدن یافته است؛ آنهم در حالی که هرگز آن عکسها را نگرفته یا به اشتراک نگذاشته است. در واقع، صورت او در این تصاویر به کمک فناوریهای دیجیتالی به تصاویر بدن فرد دیگری اضافه شده است.
این زن در مصاحبه با یورونیوز گفت که آنچه روی داده برای او نتیجهای جز "حبس مادامالعمر" نداشته است.
گزارشی دیگر که در سال ۲۰۱۹ منتشر شد نیز نشان داد که ۹۶ درصد از محتوای دیپ فیکهای آنلاین، پورنوگرافیهای غیرقانونی است. گاه نیز از فناوری دیپفیک صوتی، برای تقلید صدای یک نفر با هدف کلاهبرداری از اعضای خانوادهاش استفاده شده است. یوروپل گزارش خود را با تاکید بر این نکته به پایان رسانده که برای مجریان قانون مهم است «در خط مقدم تحولات دنیای فناوری باقی بماند» تا بتوانند استفاده مجرمانه از هوش مصنوعی را پیشبینی و از وقوع آن جلوگیری کنند.
منبع دکتر یونس شکرخواه
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
در شبکههای اجتماعی شایعه شده عکس سمت راستی به تازگی از سوی ایلان ماسک به عنوان مدیرعامل توییتر تعیین شده. این تصویر توسط #هوش_مصنوعی ساخته شده. #لیندا_یاکارینو، عکس سمت چپ، به تازگی مدیرعامل توییتر شده است. /فکت
نامه
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
نامه
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
رسانه، روزنامه نگاری و اخبار جعلی
در شبکههای اجتماعی شایعه شده عکس سمت راستی به تازگی از سوی ایلان ماسک به عنوان مدیرعامل توییتر تعیین شده. این تصویر توسط #هوش_مصنوعی ساخته شده. #لیندا_یاکارینو، عکس سمت چپ، به تازگی مدیرعامل توییتر شده است. /فکت نامه 👈 رسانه نگاری ،اخبارجعلی و مقابله…
ایلان ماسک رسما Linda Yaccarino رو به عنوان مدیرعامل جدید توییتر معرفی کرد
🔹خانم یاکارینو، ۶۰ ساله، بعد از حدود ۱۲ سال از غول رسانهای NBCUniversal جدا میشه تا به مدیرعامل توییتر تبدیل بشه. تا امروز ایشون مدیر ارشد بخش تبلیغات NBC بودن که از سال ۲۰۱۱ ایشون و تیمشون بیش از ۱۰۰ میلیارد دلار برای این شرکت اورده مالی داشتند.
🔹انتخاب خانم یاکارینو با تجربه بالایی که دو دهه در زمینه تبلیغات داره و ارتباطات وسیعی که در این مدت زمان به دست آورده، نشون میده ماسک روی ترمیم ارتباطش با تبلیغ دهندگان بزرگ توییتر، که از زمان خرید توییتر بخش بزرگی از اونها این پلتفرم رو ترک کردن، حساب کرده و قصد داره اون رو به روال سابق و حتی بهتر از گذشته برگردونه.
🔹ماسک گفته که خانم یاکارینو به عنوان مدیرعامل روی بیزنس توییتر تمرکز میکنه و خودش به مدیر ارشد تکنولوژی روی توسعه محصول و تکنولوژیهای جدید تمرکز خواهد کرد
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔹خانم یاکارینو، ۶۰ ساله، بعد از حدود ۱۲ سال از غول رسانهای NBCUniversal جدا میشه تا به مدیرعامل توییتر تبدیل بشه. تا امروز ایشون مدیر ارشد بخش تبلیغات NBC بودن که از سال ۲۰۱۱ ایشون و تیمشون بیش از ۱۰۰ میلیارد دلار برای این شرکت اورده مالی داشتند.
🔹انتخاب خانم یاکارینو با تجربه بالایی که دو دهه در زمینه تبلیغات داره و ارتباطات وسیعی که در این مدت زمان به دست آورده، نشون میده ماسک روی ترمیم ارتباطش با تبلیغ دهندگان بزرگ توییتر، که از زمان خرید توییتر بخش بزرگی از اونها این پلتفرم رو ترک کردن، حساب کرده و قصد داره اون رو به روال سابق و حتی بهتر از گذشته برگردونه.
🔹ماسک گفته که خانم یاکارینو به عنوان مدیرعامل روی بیزنس توییتر تمرکز میکنه و خودش به مدیر ارشد تکنولوژی روی توسعه محصول و تکنولوژیهای جدید تمرکز خواهد کرد
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
Media is too big
VIEW IN TELEGRAM
خبرنگار وال استریت ژورنال [1] برای سنجش نحوه برخورد خانواده و کسب و کارها - خصوصا بانک ها - با کپی ساخته شده از انسان توسط هوش مصنوعی و گمراه کردن روش های احراز هویت دیجیتالی، اقدام به یک آزمایش کرده است که نتایج آن حیرت انگیز است و نشان میدهد هوش مصنوعی تا این لحظه توانایی کامل fabricate کردن صدای شما را پیدا کرده است، ولی تنها چند قدم دیگر تا تدارک حمله fabricate ویدئویی فاصله دارد..
More info:
[1] https://www.wsj.com/articles/i-cloned-myself-with-ai-she-fooled-my-bank-and-my-family-356bd1a3?mod=djemalertNEWS
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
More info:
[1] https://www.wsj.com/articles/i-cloned-myself-with-ai-she-fooled-my-bank-and-my-family-356bd1a3?mod=djemalertNEWS
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
پلیس چین یک کاربر را بهخاطر تولید اخبار جعلی با ChatGPT دستگیر کرد
🔹پلیس چین یک مرد را در استان «گانسو» بهخاطر استفاده از ChatGPT برای نوشتن مقالات خبری جعلی دستگیر کرد. این اولین دستگیری طبق قانون جدید چین برای هوش مصنوعی است. این قانون سوءاستفاده از سرویسهای هوش مصنوعی برای انتشار اطلاعات جعلی را ممنوع میکند.
🔹طبق بیانیه پلیس، این کاربر که «هنگ» نام دارد، متهم به استفاده از چتبات OpenAI برای تولید اخبار جعلی درباره یک تصادف قطار مرگبار در چین شده است. مقامات چین در 25 آوریل مقاله اصلی درباره این تصادف را پیدا کردند و سپس چندین مقاله درباره همین تصادف در محلهای مختلف کشف شد. این اخبار جعلی بهطور همزمان از طریق ۲۰ حساب در پلتفرم Baijiahao منتشر شدند.
🔹مقامات گانسو با ردیابی این مقالات، به یک شرکت مستقل با مدیریت هنگ روبهرو میشوند که صاحب چندین وبلاگ خبری است. هنگ اعتراف کرده که از ChatGPT برای بازنویسی اخبار وایرالشده استفاده کرده تا از فیلتر تکراریبودن مطالب دوری کند. در ادامه، این اخبار در فضای آنلاین منتشر میشدند.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔹پلیس چین یک مرد را در استان «گانسو» بهخاطر استفاده از ChatGPT برای نوشتن مقالات خبری جعلی دستگیر کرد. این اولین دستگیری طبق قانون جدید چین برای هوش مصنوعی است. این قانون سوءاستفاده از سرویسهای هوش مصنوعی برای انتشار اطلاعات جعلی را ممنوع میکند.
🔹طبق بیانیه پلیس، این کاربر که «هنگ» نام دارد، متهم به استفاده از چتبات OpenAI برای تولید اخبار جعلی درباره یک تصادف قطار مرگبار در چین شده است. مقامات چین در 25 آوریل مقاله اصلی درباره این تصادف را پیدا کردند و سپس چندین مقاله درباره همین تصادف در محلهای مختلف کشف شد. این اخبار جعلی بهطور همزمان از طریق ۲۰ حساب در پلتفرم Baijiahao منتشر شدند.
🔹مقامات گانسو با ردیابی این مقالات، به یک شرکت مستقل با مدیریت هنگ روبهرو میشوند که صاحب چندین وبلاگ خبری است. هنگ اعتراف کرده که از ChatGPT برای بازنویسی اخبار وایرالشده استفاده کرده تا از فیلتر تکراریبودن مطالب دوری کند. در ادامه، این اخبار در فضای آنلاین منتشر میشدند.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔺 گوگل ابزاری برای شناسایی تصاویر ساخته شده توسط هوشمصنوعی ارائه میکند
🔹 گوگل که به تازگی در مراسم IO 2023 قابلیتها و ابزارهای جدید مبتنی بر هوشمصنوعی را معرفی کرد، در راستای کاهش نگرانی کاربران از این تکنولوژی دو قابلیت جدید را ارائه میکند. این دو قابلیت جدید که به بخش جستوجو تصاویر اضافه میشوند قرار است انتشار اطلاعات نادرست به ویژه با استفاده از ابزارهای هوشمصنوعی و تصاویر واقعگرایانه را کاهش دهد.
🔹 بیشتر کاربران اینترنت (بیش از ۹۰ درصد آنها) از گوگل برای جستوجوی اطلاعات و تصاویر استفاده میکنند و به گفته بلومبرگ، این شرکت برای جلوگیری از شایعه پراکنی با هوشمصنوعی، قابلیت جدیدی به نام « About this image» ( در مورد این تصویر) را به بخش تصاویر اضافه میکند.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔹 گوگل که به تازگی در مراسم IO 2023 قابلیتها و ابزارهای جدید مبتنی بر هوشمصنوعی را معرفی کرد، در راستای کاهش نگرانی کاربران از این تکنولوژی دو قابلیت جدید را ارائه میکند. این دو قابلیت جدید که به بخش جستوجو تصاویر اضافه میشوند قرار است انتشار اطلاعات نادرست به ویژه با استفاده از ابزارهای هوشمصنوعی و تصاویر واقعگرایانه را کاهش دهد.
🔹 بیشتر کاربران اینترنت (بیش از ۹۰ درصد آنها) از گوگل برای جستوجوی اطلاعات و تصاویر استفاده میکنند و به گفته بلومبرگ، این شرکت برای جلوگیری از شایعه پراکنی با هوشمصنوعی، قابلیت جدیدی به نام « About this image» ( در مورد این تصویر) را به بخش تصاویر اضافه میکند.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
هشدار سازمان ملل درباره استفاده مخرب از «جعل عمیق»
🔹مشاور هوش مصنوعی در سازمان ملل متحد درباره استفاده مخرب از فناوری جدید جعل عمیق (دیپ فیک) که در آن، هوش مصنوعی میتواند تصاویر غیر واقعی اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید برای محافظت از مردم بیشتر تلاش کنند.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔹مشاور هوش مصنوعی در سازمان ملل متحد درباره استفاده مخرب از فناوری جدید جعل عمیق (دیپ فیک) که در آن، هوش مصنوعی میتواند تصاویر غیر واقعی اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید برای محافظت از مردم بیشتر تلاش کنند.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
⭕️ دردسر جدید انتخابات آمریکا؛ جعل عمیق صوتی و تصویری
📌 به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند
♦️ پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است
indypersian منبع
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
📌 به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند
♦️ پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است
indypersian منبع
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
رسانه، روزنامه نگاری و اخبار جعلی
⭕️ دردسر جدید انتخابات آمریکا؛ جعل عمیق صوتی و تصویری 📌 به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند ♦️ پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده…
دردسر جدید انتخابات آمریکا؛ جعل عمیق صوتی و تصویری
به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند
پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.
بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.»
هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند.
ویدیوی هیلاری کلینتون، یکی از هزاران دیپ فیک (جعلعمیق) است که در هفتههای اخیر برای تبلیغ نامزدهای جمهوریخواه انتخابات ریاستجمهوری در فضای مجازی از طریق فناوریهای هوش مصنوعی پیشرفته ساخته شدهاند. رویترز میگوید کارشناسان فناوریهای پیشرفته معتقدند که ساخت «دیپ فیکها ارزانتر از گذشته شده است، به همین دلیل افراد بیشتری به این فناوری دسترسی دارند.»
به این ترتیب، انتظار میرود در انتخابات سال ۲۰۲۴ بیش از همیشه اخبار و ویدیوهای جعلی منتشر شود. رویترز با دارل وست، کارشناس ارشد موسسه بروکینگز، دراینباره گفتوگو کرده است. او میگوید: «تشخیص خبر واقعی از جعلی برای رایدهندگان ازاینپس بسیار دشوار خواهد بود. تصور کنید که بهعنوان مثال حامیان دونالد ترامپ تا چه اندازه میتوانند از این فناوری بهره ببرند.»
آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی -سازمانی غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه میکند- نیز به خبرگزاری رویترز میگوید که «ابزارهایی مانند دیپ فیک میتواند بزرگترین سلاح برای تولیدات جعلی باشند.»
بهعنوان مثال، دونالد ترامپ ماه گذشته در پلتفرم خود، «تروث سوشیال»، ویدیوی جعل عمیق از مجری معروف شبکه «سیانان»، اندرسون کوپر، منتشر کرد. سیانان بلافاصله این ویدیو را جعلی خواند، اما سازماندهندگان کارزار انتخاباتی دونالد ترامپ حاضر نشدند دراینباره واکنشی نشان دهند.
پلتفرمهای بزرگ رسانههای اجتماعی مانند فیسبوک، توییتر و یوتیوب تلاشهایی برای ممنوع کردن و حذف ویدیوهای جعلی انجام دادهاند. بااینحال، این ویدیوهای جعلی و اخبار نادرست همچنان بیشترین تاثیر را بر انتخابات آمریکا دارد.
طبق گفته «دیپ مدیا»، شرکتی که بر روی ابزارهای منسوب به هوش مصنوعی و ویدیوهای جعلی کار میکند، در سال جدید میلادی تعداد دیپ فیکهای تصویری سه برابر و تعداد دیپ فیکهای صوتی هشت برابر مدتزمان مشابه در سال ۲۰۲۲ میلادی است. این رسانه تخمین میزند که درمجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار جعل عمیق تصویری و صوتی در رسانههای اجتماعی در سراسر جهان به اشتراک گذاشته شود.
یکی از دلایل آن، ارزان شدن ساخت و تولید چنین محتوایی است. در سال گذشته یک دیپ فیک (جعل عمیق) صوتی هزاران دلار هزینه داشت، در حالی که در سال جاری میلادی بهراحتی با چند دلار میتوان یک جعل عمیق صوتی ساخت.
در حالی که فناوریهای هوش مصنوعی بهسرعت در جهان در حال گسترش است، بسیاری از کارشناسان و دانشمندان نگران آینده بشر در کنار گسترش «هوش مصنوعی»اند. یکی از آنها پدرخوانده و بنیانگذار هوش مصنوعی، جفری هینتون، است. او در ماه مه گذشته در گفتوگو با روزنامه نیویورکتایمز اعلام کرد برخلاف گذشته نگران است که فناوریهای هوش مصنوعی از هوش بشری پیشی بگیرند.
او در این مصاحبه از دولتهای دموکراتیک جهان خواست محدودیتهای زیادی برای هوش مصنوعی در نظر بگیرند و نگذارند این فناوریها به دست رهبران کشورهای غیردموکراتیک جهان بیفتد.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند
پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.
بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.»
هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند.
ویدیوی هیلاری کلینتون، یکی از هزاران دیپ فیک (جعلعمیق) است که در هفتههای اخیر برای تبلیغ نامزدهای جمهوریخواه انتخابات ریاستجمهوری در فضای مجازی از طریق فناوریهای هوش مصنوعی پیشرفته ساخته شدهاند. رویترز میگوید کارشناسان فناوریهای پیشرفته معتقدند که ساخت «دیپ فیکها ارزانتر از گذشته شده است، به همین دلیل افراد بیشتری به این فناوری دسترسی دارند.»
به این ترتیب، انتظار میرود در انتخابات سال ۲۰۲۴ بیش از همیشه اخبار و ویدیوهای جعلی منتشر شود. رویترز با دارل وست، کارشناس ارشد موسسه بروکینگز، دراینباره گفتوگو کرده است. او میگوید: «تشخیص خبر واقعی از جعلی برای رایدهندگان ازاینپس بسیار دشوار خواهد بود. تصور کنید که بهعنوان مثال حامیان دونالد ترامپ تا چه اندازه میتوانند از این فناوری بهره ببرند.»
آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی -سازمانی غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه میکند- نیز به خبرگزاری رویترز میگوید که «ابزارهایی مانند دیپ فیک میتواند بزرگترین سلاح برای تولیدات جعلی باشند.»
بهعنوان مثال، دونالد ترامپ ماه گذشته در پلتفرم خود، «تروث سوشیال»، ویدیوی جعل عمیق از مجری معروف شبکه «سیانان»، اندرسون کوپر، منتشر کرد. سیانان بلافاصله این ویدیو را جعلی خواند، اما سازماندهندگان کارزار انتخاباتی دونالد ترامپ حاضر نشدند دراینباره واکنشی نشان دهند.
پلتفرمهای بزرگ رسانههای اجتماعی مانند فیسبوک، توییتر و یوتیوب تلاشهایی برای ممنوع کردن و حذف ویدیوهای جعلی انجام دادهاند. بااینحال، این ویدیوهای جعلی و اخبار نادرست همچنان بیشترین تاثیر را بر انتخابات آمریکا دارد.
طبق گفته «دیپ مدیا»، شرکتی که بر روی ابزارهای منسوب به هوش مصنوعی و ویدیوهای جعلی کار میکند، در سال جدید میلادی تعداد دیپ فیکهای تصویری سه برابر و تعداد دیپ فیکهای صوتی هشت برابر مدتزمان مشابه در سال ۲۰۲۲ میلادی است. این رسانه تخمین میزند که درمجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار جعل عمیق تصویری و صوتی در رسانههای اجتماعی در سراسر جهان به اشتراک گذاشته شود.
یکی از دلایل آن، ارزان شدن ساخت و تولید چنین محتوایی است. در سال گذشته یک دیپ فیک (جعل عمیق) صوتی هزاران دلار هزینه داشت، در حالی که در سال جاری میلادی بهراحتی با چند دلار میتوان یک جعل عمیق صوتی ساخت.
در حالی که فناوریهای هوش مصنوعی بهسرعت در جهان در حال گسترش است، بسیاری از کارشناسان و دانشمندان نگران آینده بشر در کنار گسترش «هوش مصنوعی»اند. یکی از آنها پدرخوانده و بنیانگذار هوش مصنوعی، جفری هینتون، است. او در ماه مه گذشته در گفتوگو با روزنامه نیویورکتایمز اعلام کرد برخلاف گذشته نگران است که فناوریهای هوش مصنوعی از هوش بشری پیشی بگیرند.
او در این مصاحبه از دولتهای دموکراتیک جهان خواست محدودیتهای زیادی برای هوش مصنوعی در نظر بگیرند و نگذارند این فناوریها به دست رهبران کشورهای غیردموکراتیک جهان بیفتد.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
⭕️هوش مصنوعی چگونه ممکن است آینده فعالیت در شبکههای اجتماعی را تغییر دهد؟
✍🏻محمد رهبری|منتشر شده در روزنامه هممیهن
🔹ظهور هوش مصنوعی مولد (Generative AI) و تجاریشدن آن، این روزها بسیاری را هیجانزده کرده است. امکانات جدیدی که هوش مصنوعی فراهم میکند، آینده را کاملا متفاوت از امروز خواهد کرد. اما راجع به این آینده ابهامات زیادی وجود دارد. در کنار امکانات فراوانی که فناوری مبتنی بر هوش مصنوعی برای انسان فراهم میکند، احتمالا مخاطرات و آسیبهایی هم با خود بهدنبال خواهد داشت. بههمین دلیل نیز بسیاری از دانشگاههای دنیا پروژههای پژوهشی را تعریف کردند تا اثرات مثبت و منفی این تحول بزرگ در عرصه فناوری را بر سایر حوزه مطالعه کنند.
🔸در این میان، Chat GPT و سایر ChatBotهای مبتنی بر هوش مصنوعی، توجه بسیاری از پژوهشگران و علاقهمندان به فناوری را بهخود جلب کردهاند. روزی نیست که مطلب جدیدی راجع به امکانات Chat GPT و فرصتهای آن بحث نشود. یکی از امکانات جذاب Chat GPT تولید متن و محتواست. این ChatBot بر اساس درخواستی که از آن داریم، اقدام به تولید محتوا و متن میکند.
🔹امکان تولید متن و محتوا با بکارگیری Chat GPT اگرچه فرصتهایی را در اختیار افراد و شرکتهای تجاری قرار میدهد، اما تهدیداتی را هم با خود بهدنبال دارد. یکی از این تهدیدها، گسترش اخبار جعلی و حتی اکانتهای جعلی است. امروزه مبارزه با اخبار جعلی یکی از دغدغههای مهم خبرنگاران، پژوهشگران و نهادهای مدنی و دولتی است و توسعه الگوریتمهای مناسب برای تشخیص اخبار جعلی و اکانتهای فیک در دستور کار آنها قرار دارد. اما با ظهور هوش مصنوعی مولد، ماجرا پیچیدهتر میشود.
🔸یک کاربر توییتری را تصور کنید که بهطور مرتب از دیگران انتقاد میکند. هر توییتی را که نگاه میکنید، انتقاد آن کاربر را پایین آن توییت میبینید و از خود سؤال میپرسید که این کاربر چطور فرصت میکند در تمام ساعات شبانهروز از دیگران انتقاد کند! این کار میتواند با کمک Chat GPT و بهطور اتوماتیک انجام شود. تنها کافی است که آن اکانت به Chat GPT متصل باشد و بهطور اتوماتیک هر توییتی میبیند برای Chat GPT بفرستد و از آن بخواهد تا یک متن انتقادی راجع به آن توییت بنویسد. سپس نتیجه را در توییتر بهطور اتوماتیک منتشر کند.
🔹شاید بهنظر بیاید این کار شدنی نیست و Chat GPT هنوز به آن مرحله نرسیده است که چنین خروجی داشته باشد. من برای امتحان و بررسی این روش، یک توییت از کاربری به نام «مونا گنجیان» را به Chat GPT دادم و از آن خواستم تا نقدی بر این توییت بنویسید. متن توییت و پاسخ Chat GPT را در تصویر زیر میتوانید ببینید.
🔸در کمال شگفتی، Chat GPT نسبتا پاسخ انتقادی خوبی به توییت اولیه داده است. امری که نشان میدهد این ChatBot حتی در تشخیص زبان روزمره فارسی و ارائه پاسخ به آن نسبتا خوب عمل میکند. حال تصور کنید آن اکانت توییتری مرتبا توییتهای مربوط به یک موضوع خاص را بهطور اتوماتیک به Chat GPT بدهد و پاسخ آن را نیز در پایین هر توییت کامنت بگذارد. اینگونه یک اکانت بدون این که توسط شخص خاصی اداره شود، مرتبا فعال است و علیه دیگران کامنت میگذارد بدون آن که دیگران متوجه شوند هیچکسی پشت آن اکانت نیست.
🔹همین قابلیت میتواند در خدمت ساخت اکانتها و اخبار جعلی قرار بگیرد. با توجه به این امکانات، شاید در آینده نزدیک اکانتهایی در شبکههای اجتماعی فعال شوند که عملا توسط هوش مصنوعی و بهطور اتوماتیک اداره میشوند اما امکان تشخیص آن از یک کاربر واقعی دشوار باشد. در نتیجه این کاربر بهمرور با فعالیت مستمر در آن شبکه اجتماعی میتواند جذب فالوئر کند در حالی که هیچکسی پشت آن نیست. این کاربر همچنین میتواند با ادبیاتی شبیه به دیگران محتوایی تولید کند که باورپذیر بوده اما از اساس غلط و دروغ باشد. تا امروز عامل انسانی در کنار هوش مصنوعی نقش مهمی در شناسایی اخبار جعلی داشته است؛ اما افزایش پیچیدگی اخبار جعلی، احتمال شناسایی این قبیل خبرها دشوارتر شود.
🔸با این حساب، بهنظر میرسد توسعه هوش مصنوعی مولد حتی نوع کنشگری در شبکههای اجتماعی را نیز دستخوش تغییر کند. در یک جمعبندی کلی باید گفت که هوش مصنوعی مولد، مانند انواع دیگر فناوری، توأمان فرصتها و تهدیداتی را ایجاد میکند که باید آگاهانه با آنها روبرو شد. فناوری همراه با خود فرصتها و تهدیدهایی را با هم میآورد و از همین تکنولوژی نیز باید برای کنترل تهدیدها و شناسایی آنها بهره گرفت و چهبسا امکان طراحی الگوریتمی برای شناسایی همین اکانتهای جعلی نیز ممکن شود. آنچه مسلم است آن است که آینده بسیار متفاوت از امروز خواهد بود.
❇️کانال تحلیل شبکههای اجتماعی مجازی
📲@socialMediaAnalysis
✍🏻محمد رهبری|منتشر شده در روزنامه هممیهن
🔹ظهور هوش مصنوعی مولد (Generative AI) و تجاریشدن آن، این روزها بسیاری را هیجانزده کرده است. امکانات جدیدی که هوش مصنوعی فراهم میکند، آینده را کاملا متفاوت از امروز خواهد کرد. اما راجع به این آینده ابهامات زیادی وجود دارد. در کنار امکانات فراوانی که فناوری مبتنی بر هوش مصنوعی برای انسان فراهم میکند، احتمالا مخاطرات و آسیبهایی هم با خود بهدنبال خواهد داشت. بههمین دلیل نیز بسیاری از دانشگاههای دنیا پروژههای پژوهشی را تعریف کردند تا اثرات مثبت و منفی این تحول بزرگ در عرصه فناوری را بر سایر حوزه مطالعه کنند.
🔸در این میان، Chat GPT و سایر ChatBotهای مبتنی بر هوش مصنوعی، توجه بسیاری از پژوهشگران و علاقهمندان به فناوری را بهخود جلب کردهاند. روزی نیست که مطلب جدیدی راجع به امکانات Chat GPT و فرصتهای آن بحث نشود. یکی از امکانات جذاب Chat GPT تولید متن و محتواست. این ChatBot بر اساس درخواستی که از آن داریم، اقدام به تولید محتوا و متن میکند.
🔹امکان تولید متن و محتوا با بکارگیری Chat GPT اگرچه فرصتهایی را در اختیار افراد و شرکتهای تجاری قرار میدهد، اما تهدیداتی را هم با خود بهدنبال دارد. یکی از این تهدیدها، گسترش اخبار جعلی و حتی اکانتهای جعلی است. امروزه مبارزه با اخبار جعلی یکی از دغدغههای مهم خبرنگاران، پژوهشگران و نهادهای مدنی و دولتی است و توسعه الگوریتمهای مناسب برای تشخیص اخبار جعلی و اکانتهای فیک در دستور کار آنها قرار دارد. اما با ظهور هوش مصنوعی مولد، ماجرا پیچیدهتر میشود.
🔸یک کاربر توییتری را تصور کنید که بهطور مرتب از دیگران انتقاد میکند. هر توییتی را که نگاه میکنید، انتقاد آن کاربر را پایین آن توییت میبینید و از خود سؤال میپرسید که این کاربر چطور فرصت میکند در تمام ساعات شبانهروز از دیگران انتقاد کند! این کار میتواند با کمک Chat GPT و بهطور اتوماتیک انجام شود. تنها کافی است که آن اکانت به Chat GPT متصل باشد و بهطور اتوماتیک هر توییتی میبیند برای Chat GPT بفرستد و از آن بخواهد تا یک متن انتقادی راجع به آن توییت بنویسد. سپس نتیجه را در توییتر بهطور اتوماتیک منتشر کند.
🔹شاید بهنظر بیاید این کار شدنی نیست و Chat GPT هنوز به آن مرحله نرسیده است که چنین خروجی داشته باشد. من برای امتحان و بررسی این روش، یک توییت از کاربری به نام «مونا گنجیان» را به Chat GPT دادم و از آن خواستم تا نقدی بر این توییت بنویسید. متن توییت و پاسخ Chat GPT را در تصویر زیر میتوانید ببینید.
🔸در کمال شگفتی، Chat GPT نسبتا پاسخ انتقادی خوبی به توییت اولیه داده است. امری که نشان میدهد این ChatBot حتی در تشخیص زبان روزمره فارسی و ارائه پاسخ به آن نسبتا خوب عمل میکند. حال تصور کنید آن اکانت توییتری مرتبا توییتهای مربوط به یک موضوع خاص را بهطور اتوماتیک به Chat GPT بدهد و پاسخ آن را نیز در پایین هر توییت کامنت بگذارد. اینگونه یک اکانت بدون این که توسط شخص خاصی اداره شود، مرتبا فعال است و علیه دیگران کامنت میگذارد بدون آن که دیگران متوجه شوند هیچکسی پشت آن اکانت نیست.
🔹همین قابلیت میتواند در خدمت ساخت اکانتها و اخبار جعلی قرار بگیرد. با توجه به این امکانات، شاید در آینده نزدیک اکانتهایی در شبکههای اجتماعی فعال شوند که عملا توسط هوش مصنوعی و بهطور اتوماتیک اداره میشوند اما امکان تشخیص آن از یک کاربر واقعی دشوار باشد. در نتیجه این کاربر بهمرور با فعالیت مستمر در آن شبکه اجتماعی میتواند جذب فالوئر کند در حالی که هیچکسی پشت آن نیست. این کاربر همچنین میتواند با ادبیاتی شبیه به دیگران محتوایی تولید کند که باورپذیر بوده اما از اساس غلط و دروغ باشد. تا امروز عامل انسانی در کنار هوش مصنوعی نقش مهمی در شناسایی اخبار جعلی داشته است؛ اما افزایش پیچیدگی اخبار جعلی، احتمال شناسایی این قبیل خبرها دشوارتر شود.
🔸با این حساب، بهنظر میرسد توسعه هوش مصنوعی مولد حتی نوع کنشگری در شبکههای اجتماعی را نیز دستخوش تغییر کند. در یک جمعبندی کلی باید گفت که هوش مصنوعی مولد، مانند انواع دیگر فناوری، توأمان فرصتها و تهدیداتی را ایجاد میکند که باید آگاهانه با آنها روبرو شد. فناوری همراه با خود فرصتها و تهدیدهایی را با هم میآورد و از همین تکنولوژی نیز باید برای کنترل تهدیدها و شناسایی آنها بهره گرفت و چهبسا امکان طراحی الگوریتمی برای شناسایی همین اکانتهای جعلی نیز ممکن شود. آنچه مسلم است آن است که آینده بسیار متفاوت از امروز خواهد بود.
❇️کانال تحلیل شبکههای اجتماعی مجازی
📲@socialMediaAnalysis
Telegraph
هوش مصنوعی چگونه ممکن است آینده فعالیت در شبکههای اجتماعی را تغییر دهد؟
فایل پیدیاف کتاب «پنج گفتار درباره اخبار جعلی» دستاورد تلاش سید غلامرضا فلسفی پژوهشگر حوزه سوادهای رسانهای و خبری در قالب نذر فرهنگی از سوی نویسنده در اختیار علاقهمندان قرار گرفت.
این کتاب که چاپهای اول و دوم آن طی سال ۱۳۹۹ منتشر شد،
. .https://media.shafaqna.com/news/551340/
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
این کتاب که چاپهای اول و دوم آن طی سال ۱۳۹۹ منتشر شد،
. .https://media.shafaqna.com/news/551340/
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
پنج_گفتار_درباره_اخبار_جعلي_چاپ_دوم.pdf
1.4 MB
کتاب «پنج گفتار درباره اخبار جعلی» در قالب نذر فرهنگی در اختیار علاقهمندان قرار گرفت
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔸تیترهای کلیکی یا تَله کلیک چیست؟
▫️برگرفته از: Marx communications
تيترهای كليكی، پیامدهای نامطلوب بسياری به همراه داشته و اغلب با سایتهای جعلی خبری و هرزنامههایی مرتبط است که بدون ارائه هیچ ارزشی، ترافیک و درآمد تبلیغاتی برای خود به همراه دارند. اگر تاکنون در زمینه بازاریابی دیجیتال کار کردهاید، از میزان اهمیت تیترها در کلیک و ترافیک آگاه هستید.
برای خواندن ادامه مطلب، اینجا را کلیک کنید
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
▫️برگرفته از: Marx communications
تيترهای كليكی، پیامدهای نامطلوب بسياری به همراه داشته و اغلب با سایتهای جعلی خبری و هرزنامههایی مرتبط است که بدون ارائه هیچ ارزشی، ترافیک و درآمد تبلیغاتی برای خود به همراه دارند. اگر تاکنون در زمینه بازاریابی دیجیتال کار کردهاید، از میزان اهمیت تیترها در کلیک و ترافیک آگاه هستید.
برای خواندن ادامه مطلب، اینجا را کلیک کنید
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
Forwarded from عرصههای ارتباطی (Younes Shokrkhah)
#روزنامهنگاری #خبر
🔸نقش منبع در روزنامهنگاری
فردارسانه: در دنیای همیشه در حال تحول رسانهها، منابع نقش مهمی در روزنامهنگاری و اخبار دقیق و قابل اعتماد دارند. روزنامهنگاران وظیفه اخلاقی دارند که حقیقت را گزارش کنند و بازنمایی عادلانهای از رویدادها ارائه دهند و منابع در دستیابی به این هدف نقش اساسی دارند. آنها بهعنوان پایهای عمل میکنند که داستانهای خبری بر اساس آن ساخته میشوند و به روزنامهنگاران اطلاعات دست اول، نظرات کارشناسی و بینشهای منحصر به فرد ارائه میدهند. نقش آنها در روزنامهنگاری فراتر از ارائه دهندگان صرف اطلاعات است، زیرا آنها بازیگران کلیدی در ترویج شفافیت، مسئولیتپذیری و اعتبار در گزارشهای خبری هستند. لینک
🔸نقش منبع در روزنامهنگاری
فردارسانه: در دنیای همیشه در حال تحول رسانهها، منابع نقش مهمی در روزنامهنگاری و اخبار دقیق و قابل اعتماد دارند. روزنامهنگاران وظیفه اخلاقی دارند که حقیقت را گزارش کنند و بازنمایی عادلانهای از رویدادها ارائه دهند و منابع در دستیابی به این هدف نقش اساسی دارند. آنها بهعنوان پایهای عمل میکنند که داستانهای خبری بر اساس آن ساخته میشوند و به روزنامهنگاران اطلاعات دست اول، نظرات کارشناسی و بینشهای منحصر به فرد ارائه میدهند. نقش آنها در روزنامهنگاری فراتر از ارائه دهندگان صرف اطلاعات است، زیرا آنها بازیگران کلیدی در ترویج شفافیت، مسئولیتپذیری و اعتبار در گزارشهای خبری هستند. لینک
🔺کارتون با طعم تکنولوژیهای نوین ارتباطی
آیا هوش مصنوعی به زودی وارد سطح احساسات خواهد شد؟آیا احساسات ما را درک کرده و واکنش صحیح و متناسب خواهد داد؟آیا ماجرا فراتر از اینها بوده و به توان حسی برابر یا بالاتر از انسان خواهد رسید؟آیا این عمل حداقل در ابتدا تقلیدی خواهد بود؟آیا ما الگوهای خوبی برای هوش مصنوعی خواهیم بود؟چقدر احساسات ما توسط هوش مصنوعی درک شده و پاسخ داده خواهد شد؟آیا به هم حسی، هم دردی و ادراک مشترک خواهیم رسید؟آیا هوش مصنوعی معنای عمیق عشق را درک خواهد کرد؟آیا خیلی از ویژگیهای حسی، انسانی باقی خواهند ماند؟ آیا هوش مصنوعی می تواند احساسات عمیق به طور مثال یک مادر را یا یک عاشق را درک کرده و به تجربه ای برابر انسان در این حوزه ها برسد؟ آیا یک پرستار ربات انسان نما، قادر به بروز احساساتی چون انسان خواهد بود؟آیا توان انتقال اینگونه احساسات میان گونه خود را خواهند داشت؟ ورود هوش مصنوعی به مرحله احساسات خوب است یا بد؟چرا؟مزایا و معایب و تبعات احتمالی آن کدامند؟ آمادگی این تجربه را با هوش مصنوعی داریم؟
اثری از مریم سلیمی
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
آیا هوش مصنوعی به زودی وارد سطح احساسات خواهد شد؟آیا احساسات ما را درک کرده و واکنش صحیح و متناسب خواهد داد؟آیا ماجرا فراتر از اینها بوده و به توان حسی برابر یا بالاتر از انسان خواهد رسید؟آیا این عمل حداقل در ابتدا تقلیدی خواهد بود؟آیا ما الگوهای خوبی برای هوش مصنوعی خواهیم بود؟چقدر احساسات ما توسط هوش مصنوعی درک شده و پاسخ داده خواهد شد؟آیا به هم حسی، هم دردی و ادراک مشترک خواهیم رسید؟آیا هوش مصنوعی معنای عمیق عشق را درک خواهد کرد؟آیا خیلی از ویژگیهای حسی، انسانی باقی خواهند ماند؟ آیا هوش مصنوعی می تواند احساسات عمیق به طور مثال یک مادر را یا یک عاشق را درک کرده و به تجربه ای برابر انسان در این حوزه ها برسد؟ آیا یک پرستار ربات انسان نما، قادر به بروز احساساتی چون انسان خواهد بود؟آیا توان انتقال اینگونه احساسات میان گونه خود را خواهند داشت؟ ورود هوش مصنوعی به مرحله احساسات خوب است یا بد؟چرا؟مزایا و معایب و تبعات احتمالی آن کدامند؟ آمادگی این تجربه را با هوش مصنوعی داریم؟
اثری از مریم سلیمی
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
#فیکنیوز
🔸سرچ کردن باعث میشود اخبار جعلی را زودتر باور کنیم
🔺سرچکردن امروزه برای اکثر ما به فعالیتی روزمره تبدیل شده است. تا حدی که پژوهشگرانی مانند ست استیونز دیویدویتس معتقدند بررسی سابقۀ سرچهای انسانها بیشتر از هر منبع دیگری دربارۀ آن شخص به ما اطلاعات میدهد. چرا که افراد معمولاً حتی چیزهایی را که خجالت میکشند با دیگران مطرح کنند، از موتورهای جستجو میپرسند. بدینترتیب شاید بتوانیم بگوییم #موتورهایجستجو صمیمیترین دوستان آنلاین ما هستند و چیزهایی دربارۀ ما میدانند که هیچکس دیگری نمیداند. پژوهشگران #سوادرسانهای عموماً سرچکردن را عادتی مفید میدانند که باعث میشود فرد در معرض منابع اطلاعاتی گوناگونی قرار بگیرد و با مقایسۀ آنها کمتر در دامِ اطلاعات گمراهکننده بیفتد. بااینحال، پژوهشی جدید که نتایج آن در نیچر منتشر شده است، نشان میدهد که سرچکردن همیشه ما را به افرادی آگاهتر تبدیل نمیکند. بلکه برعکس، ممکن است باعث شود زودتر اخبار جعلی یا اطلاعات گمراهکننده را باور کنیم. کوین اسلت و همکاران او در دانشگاه فلوریدا برای سنجیدن اثر سرچ در باور به اخبار جعلی، تحقیقی پنجمرحلهای را طراحی کردند که طی آن مشارکتکنندگان دربارۀ دو دسته از اطلاعات، در فواصل زمانی گوناگون، سرچ میکردند. یک دسته از این اطلاعات درست بودند و دستۀ دیگر را اخبار جعلی و گمراهکننده تشکیل میداد. آنها اطلاعاتی راجع به همهگیری کرونا، واکسیناسیون و اقدامات دونالد ترامپ را به مشارکتکنندگان دادند تا با استفاده از سرچ تعیین کنند که درست هستند یا جعلی.
نتایج این تحقیق بسیار نگرانکننده بود. زیرا پیوستگی معناداری بین میزان استفاده از موتورهای جستجوی اینترنتی و باور به جعلیات دیده میشد. نویسندگان این تحقیق میگویند احتمالاً مقصر اصلی را باید الگوریتمهای هدایتکنندۀ موتورهای جستجو دانست. زیرا این الگوریتمها اهمیت اندکی به اعتبارسنجی نتایجی میدهد که برای کاربران خود پیدا میکنند و تکیۀ آنها بر مطالب ساده، پرطرفدار و جنجالبرانگیز است. آنها بهجای اینکه «مفیدترین» اطلاعات را به کاربر بدهند، «جالبترین» نتایج را به او نشان میدهند. الگوریتمهای شخصیسازی نتایج در موتورهای جستجو نیز میتوانند این شرایط را بدتر کنند. چرا که در نتیجۀ آنها به شکلی گریزناپذیر به ردپاهای دیجیتال خود میچسبیم و احتمال دریافت دادهها یا تحلیلهای متفاوت کاهش مییابد.
پیش از این، متخصصان هشدارهای جدی دربارۀ اتکا به سرچهای اینترنتی در حوزههایی مانند سلامتی روانی یا مصرف دارویی دادهاند. اما تحقیق اسلیت و همکارانش نشان میدهد که باید این مسئله را در ابعادی بزرگتر نگریست. در دنیای شلوغ و سریع امروز، ما ناچاریم تا دربارۀ خیلی چیزها سرچ کنیم، اما لازم است به تکنیکهای دیگر سواد رسانهای نیز مجهز باشیم تا در دریای اطلاعات گمراهکننده و اخبار جعلی اینترنت غرق نشویم.
آنچه خواندید مروری بود بر مقالۀ کوین اسلیت و همکارانش (سرچهای آنلاین دربارۀ اطلاعات نادرست میتواند تصور صحت آنها را افزایش دهد) که در شمارۀ دسامبر نیچر به انتشار رسیده بود.
منبع : دکتر یونس شکرخواه
Online searches to evaluate misinformation can increase its perceived veracity
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔸سرچ کردن باعث میشود اخبار جعلی را زودتر باور کنیم
🔺سرچکردن امروزه برای اکثر ما به فعالیتی روزمره تبدیل شده است. تا حدی که پژوهشگرانی مانند ست استیونز دیویدویتس معتقدند بررسی سابقۀ سرچهای انسانها بیشتر از هر منبع دیگری دربارۀ آن شخص به ما اطلاعات میدهد. چرا که افراد معمولاً حتی چیزهایی را که خجالت میکشند با دیگران مطرح کنند، از موتورهای جستجو میپرسند. بدینترتیب شاید بتوانیم بگوییم #موتورهایجستجو صمیمیترین دوستان آنلاین ما هستند و چیزهایی دربارۀ ما میدانند که هیچکس دیگری نمیداند. پژوهشگران #سوادرسانهای عموماً سرچکردن را عادتی مفید میدانند که باعث میشود فرد در معرض منابع اطلاعاتی گوناگونی قرار بگیرد و با مقایسۀ آنها کمتر در دامِ اطلاعات گمراهکننده بیفتد. بااینحال، پژوهشی جدید که نتایج آن در نیچر منتشر شده است، نشان میدهد که سرچکردن همیشه ما را به افرادی آگاهتر تبدیل نمیکند. بلکه برعکس، ممکن است باعث شود زودتر اخبار جعلی یا اطلاعات گمراهکننده را باور کنیم. کوین اسلت و همکاران او در دانشگاه فلوریدا برای سنجیدن اثر سرچ در باور به اخبار جعلی، تحقیقی پنجمرحلهای را طراحی کردند که طی آن مشارکتکنندگان دربارۀ دو دسته از اطلاعات، در فواصل زمانی گوناگون، سرچ میکردند. یک دسته از این اطلاعات درست بودند و دستۀ دیگر را اخبار جعلی و گمراهکننده تشکیل میداد. آنها اطلاعاتی راجع به همهگیری کرونا، واکسیناسیون و اقدامات دونالد ترامپ را به مشارکتکنندگان دادند تا با استفاده از سرچ تعیین کنند که درست هستند یا جعلی.
نتایج این تحقیق بسیار نگرانکننده بود. زیرا پیوستگی معناداری بین میزان استفاده از موتورهای جستجوی اینترنتی و باور به جعلیات دیده میشد. نویسندگان این تحقیق میگویند احتمالاً مقصر اصلی را باید الگوریتمهای هدایتکنندۀ موتورهای جستجو دانست. زیرا این الگوریتمها اهمیت اندکی به اعتبارسنجی نتایجی میدهد که برای کاربران خود پیدا میکنند و تکیۀ آنها بر مطالب ساده، پرطرفدار و جنجالبرانگیز است. آنها بهجای اینکه «مفیدترین» اطلاعات را به کاربر بدهند، «جالبترین» نتایج را به او نشان میدهند. الگوریتمهای شخصیسازی نتایج در موتورهای جستجو نیز میتوانند این شرایط را بدتر کنند. چرا که در نتیجۀ آنها به شکلی گریزناپذیر به ردپاهای دیجیتال خود میچسبیم و احتمال دریافت دادهها یا تحلیلهای متفاوت کاهش مییابد.
پیش از این، متخصصان هشدارهای جدی دربارۀ اتکا به سرچهای اینترنتی در حوزههایی مانند سلامتی روانی یا مصرف دارویی دادهاند. اما تحقیق اسلیت و همکارانش نشان میدهد که باید این مسئله را در ابعادی بزرگتر نگریست. در دنیای شلوغ و سریع امروز، ما ناچاریم تا دربارۀ خیلی چیزها سرچ کنیم، اما لازم است به تکنیکهای دیگر سواد رسانهای نیز مجهز باشیم تا در دریای اطلاعات گمراهکننده و اخبار جعلی اینترنت غرق نشویم.
آنچه خواندید مروری بود بر مقالۀ کوین اسلیت و همکارانش (سرچهای آنلاین دربارۀ اطلاعات نادرست میتواند تصور صحت آنها را افزایش دهد) که در شمارۀ دسامبر نیچر به انتشار رسیده بود.
منبع : دکتر یونس شکرخواه
Online searches to evaluate misinformation can increase its perceived veracity
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
کتاب "مدیریت رسانهای بازارهای فرهنگی" نوشته برند رایتز و با ترجمه جواددلیری روزنامه نگار و دانش آموخته مدیریت رسانه
در ۵۶۰ صفحه منتشر شد
رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
در ۵۶۰ صفحه منتشر شد
رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
کتاب "مدیریت رسانهای بازارهای فرهنگی" نوشته برند رایتز و با ترجمه جواددلیری روزنامه نگار و دانش آموخته مدیریت رسانه
در ۵۶۰ صفحه منتشر شد
. کتاب "مدیریت رسانهای بازارهای فرهنگی" به مبانی، کارکرد، استراتژیهای مدیریت رسانه ای و مدلهای کسب وکار درصنعت رسانه، سینما، تلویزیون، موسیقی و بازی و... می پردازد و قصد دارد برخی مفاهیم جدید را در حوزه مدیریت رسانه بشکافد و نسبت آنها را با تحولات فناورانه و رسانهای کلان نشان بدهد. مدیریت رسانه پیش از اینکه یک علم باشد، اکنون راهکار و ابزاری برای جامعه جدید رسانهای و کسبوکارهای دیجیتالی است.
کتاب «مدیریت رسانهای بازارهای فرهنگی» در ۱۲ فصل به معرفی شرایطی میپردازد که تأثیری بالقوه بر مدیریت در بنگاههای رسانهای دارند. فصل اول، به معرفی شرایطی میپردازد که تأثیری بالقوه بر مدیریت در بنگاههای رسانهای دارند. در ابتدا، تعریفی از واژگان مناسب ارائه میشود. سپس، محیط فعالیت بنگاههای رسانهای مورد مطالعه قرار میگیرد و به تبع آن، بیشترین میزان توجه این بخش به توسعههای اخیر در بازارهای رسانهای اطلاعاتی و ارتباطاتی و در کنار آن، دغدغههای اصلی موجود در صنعت رسانه استفصل دوم مبانی و ویژگیهای مرتبط با مدیریت رسانه را ارائه میکند. این فصل، نوعی طبقهبندی نظری و اصطلاحی از حوزه مدیریت رسانه ارائه کرده و ویژگیهای بازارهای رسانهای و همچنین محصولات آن را بررسی میکند.
در فصل سوم، نظامهای تولید ارزش بنگاههای رسانهای ارائه شده و ساختارهای تولید ارزش، نقاطقوت و مهارتهای کاربردی و همچنین مدلهای کسبوکار برای بنگاههای رسانهای توضیح داده میشود.در فصل چهارم، کارکردهای مدیریت رسانه مورد واکاوابی قرار گرفته است.
در فصلهای بعدی (پنجم تا دوازدهم) به بحثهای منحصر به شاخههایی از مدیریت رسانه در انواع بازارهای رسانهای و فرهنگی پرداخته میشود
در فصلهای سیزدهم و چهاردهم با عنوان مدیریت رسانههای بینالمللی و بنگاههای رسانهای و چندرسانهای یکپارچه بررسی میشوند. در فصل آخر چند مطالعه موردی از شاخههای مختلف ارائه میشود.
کتاب کتاب "مدیریت رسانهای بازارهای فرهنگی" توسط انتشارات ایران منتشر شده است
.
استفاده از این کتاب به مدیران رسانهای و مدیران فرهنگی و صاحبان کسبوکارهای فرهنگی و رسانهای توصیه میشود.
رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
در ۵۶۰ صفحه منتشر شد
. کتاب "مدیریت رسانهای بازارهای فرهنگی" به مبانی، کارکرد، استراتژیهای مدیریت رسانه ای و مدلهای کسب وکار درصنعت رسانه، سینما، تلویزیون، موسیقی و بازی و... می پردازد و قصد دارد برخی مفاهیم جدید را در حوزه مدیریت رسانه بشکافد و نسبت آنها را با تحولات فناورانه و رسانهای کلان نشان بدهد. مدیریت رسانه پیش از اینکه یک علم باشد، اکنون راهکار و ابزاری برای جامعه جدید رسانهای و کسبوکارهای دیجیتالی است.
کتاب «مدیریت رسانهای بازارهای فرهنگی» در ۱۲ فصل به معرفی شرایطی میپردازد که تأثیری بالقوه بر مدیریت در بنگاههای رسانهای دارند. فصل اول، به معرفی شرایطی میپردازد که تأثیری بالقوه بر مدیریت در بنگاههای رسانهای دارند. در ابتدا، تعریفی از واژگان مناسب ارائه میشود. سپس، محیط فعالیت بنگاههای رسانهای مورد مطالعه قرار میگیرد و به تبع آن، بیشترین میزان توجه این بخش به توسعههای اخیر در بازارهای رسانهای اطلاعاتی و ارتباطاتی و در کنار آن، دغدغههای اصلی موجود در صنعت رسانه استفصل دوم مبانی و ویژگیهای مرتبط با مدیریت رسانه را ارائه میکند. این فصل، نوعی طبقهبندی نظری و اصطلاحی از حوزه مدیریت رسانه ارائه کرده و ویژگیهای بازارهای رسانهای و همچنین محصولات آن را بررسی میکند.
در فصل سوم، نظامهای تولید ارزش بنگاههای رسانهای ارائه شده و ساختارهای تولید ارزش، نقاطقوت و مهارتهای کاربردی و همچنین مدلهای کسبوکار برای بنگاههای رسانهای توضیح داده میشود.در فصل چهارم، کارکردهای مدیریت رسانه مورد واکاوابی قرار گرفته است.
در فصلهای بعدی (پنجم تا دوازدهم) به بحثهای منحصر به شاخههایی از مدیریت رسانه در انواع بازارهای رسانهای و فرهنگی پرداخته میشود
در فصلهای سیزدهم و چهاردهم با عنوان مدیریت رسانههای بینالمللی و بنگاههای رسانهای و چندرسانهای یکپارچه بررسی میشوند. در فصل آخر چند مطالعه موردی از شاخههای مختلف ارائه میشود.
کتاب کتاب "مدیریت رسانهای بازارهای فرهنگی" توسط انتشارات ایران منتشر شده است
.
استفاده از این کتاب به مدیران رسانهای و مدیران فرهنگی و صاحبان کسبوکارهای فرهنگی و رسانهای توصیه میشود.
رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
✅آیندهپژوهی
🔴۱۰ بحران مهم دنیا در دو سال آینده
۱- اطلاعات نادرست در فضای مجازی (Misinformation)
۲- رخدادهای شدید آب و هوایی (Extreme Weather Events)
۳- دوقطبیهای اجتماعی (Societal Polarization)،
۴- ناامنی سایبری (Cyber Insecurity)
۵- نزاعهای مسلحانه بین دولتها (Interstate Armed Conflict)
۶- فقدان فرصتهای اقتصادی (Lack of Economic Opportunities)
۷- تورم (Inflation)
۸- مهاجرت غیرداوطلبانه (Involuntary Migration)
۹- نزول اقتصادی (Economic Downturn)
۱۰-آلودگی هوا (Pollution)
منبع :فکتپرس
🔴۱۰ بحران مهم دنیا در دو سال آینده
۱- اطلاعات نادرست در فضای مجازی (Misinformation)
۲- رخدادهای شدید آب و هوایی (Extreme Weather Events)
۳- دوقطبیهای اجتماعی (Societal Polarization)،
۴- ناامنی سایبری (Cyber Insecurity)
۵- نزاعهای مسلحانه بین دولتها (Interstate Armed Conflict)
۶- فقدان فرصتهای اقتصادی (Lack of Economic Opportunities)
۷- تورم (Inflation)
۸- مهاجرت غیرداوطلبانه (Involuntary Migration)
۹- نزول اقتصادی (Economic Downturn)
۱۰-آلودگی هوا (Pollution)
منبع :فکتپرس