Telegram Group Search
Forwarded from عرصه‌های‌ ارتباطی (Younes Shokrkhah)
#خبر #چهره #زوم #روزنامه‌نگاری
🔸 نگاه جان هارتلی به خبر
#جان_هارتلي (John Hartly) پژوهشگر سرشناس دانش ارتباطات می‌گويد: #خبر عمدتاً محصول تاريخ است و تاريخ خبر از قرن نوزدهم به بعد، به بررسی اين امر تبديل شده است كه چگونه عبارت "خبر براي مردم" به عبارت"خبر براي بازار" تغيير يافته است.
هارتلی معتقداست كه نحوه توليد خبر به نحوه توليد كالا شباهت يافته است و يكي از كالاهایی كه روزنامه‌ها مايل به توليدآن هستند، خواننده است. و از آنجا كه روزنامه‌ها نمی‌توانند صرفاً با تكيه بر فروش خود به بقا ادامه دهند، خواننده را به آگهی دهنده می‌فروشند. به اين ترتيب هارتلی می‌كوشد تا نقش نيروهای بازار و به عبارت بهتر نقش سرمايه را بر حاصل كار روزنامه‌ها نشان دهد چرخه‌ای كه او مطرح می‌كند، توجه ما را به سوي منابع خبری روزنامه‌ها معطوف می‌سازد و به اينكه چرا برخی از روزنامه‌های بزرگ تثبيت می‌شوند و چرا برخی از روزنامه‌های پرمحتوا از صحنه بيرون می‌روند.
به عقيده جان هارتلي، منابع خبری جايگزين در اقليت قرار گرفته‌اند و كم كم از صحنه حذف می‌شوند، زيرا كه ديگر آن دوران آغازين قرن نوزدهم كه در آن فروش و نه آگهی، رمز بقای روزنامه‌ها بود، سپري شده است (به علت كاهش يا محدوديت تيراژ) و اينك با روزنامه‌هایی ارزان اما پر آگهی سر وكار داريم و به همين دليل است كه ديگر از آن دوران كه مشخصه‌اش راديكاليسم يا تندگرایی سياسی بود، دور شده‌ايم، حالا به جاي راديكاليسم سياسی با مقوله ارتباط مؤثر با مخاطبان بيشتر سر و كار داريم و حلقه وصل اين ارتباط، پول است. خوانندگان هم فقط همين منابع خبری مبتنی بر پول را در اختيار دارند و حتی اگر روزنامه‌های جانشين (Alternative Press ) بتوانند منتشر شوند و بخواهند به منابع خبری جانشين براي مردم تبديل شوند، نظام حاكم بر توزيع، كه در اختيار توزيع كنندگان كل است، اجازه چرخش اين نوع از منابع خبری را در مجاري توزيع نمی‌دهد و به اين ترتيب خوانندگان از دسترسی به اين دسته از منابع خبری محروم می‌مانند.
موضوعی كه هارتلی مطرح می‌كند در مورد خبرگزاري‌های بين‌المللي هم صادق است. اين خبرگزاري‌ها در مقام منابع خبری كليدی اجازه ورود هرنوع خبر را به مجاری توزيع خود نمی‌دهند به ويژه اگر خبر- ولو به طرزی اندك- با منافع حاكم بر اين منابع خبری ناسازگار باشد.
با اين حساب، می‌توان رابطه منبع خبر و مخاطب را رابطه‌ای يکجانبه نه ارتباط متقابل و رضايت بخش- توصيف كرد كه از منبع خبر به سوی مخاطب جاری است و مخاطب بايد در صورت امكان از ميان آنچه به او ارائه- و در واقع تحميل- می‌شود، دست به انتخاب بزند.
افزون بر اين، منابع بين‌المللي خبری بايد برحسب ظاهر هر آنچه را كه تازه و جديد است مخابره كنند اما در عمل فقط در شش حوزه مشخص گام برمی‌دارند.
هارتلي اين شش حوزه در مطبوعات بریتانیا را چنين برمی‌‌شمارد: سياست، اقتصاد، روابط خارجی، اخبار داخلی، اخبار مناسبت‌ها و بالاخره ورزش.
#هوش‌مصنوعی #جرایم‌سایبر
🔸پیامدهای دیپ‌‌فیک در دنیای واقعی
از نظر #یوروپل (پلیس ‌اتحادیه اروپا) #چت‌جی‌پی‌تی تنها یکی از حوزه‌های هوش مصنوعی است که می‌تواند بطور گسترده از سوی مجرمان استفاده شود. پیش از این نیز برخی فناوری‌های جنجالی هوش مصنوعی مانند #دیپ‌‌فیک آسیب‌های جدی به جامعه رسانده بودند.
بطور مثال، یکی از پرونده‌های تخلفات اینترنتی درباره زنی ۱۸ ساله بوده است که در کمال ناباوری عکس‌های پورن خود را در فضای مجازی در حال دست به دست شدن یافته است؛ آنهم در حالی که هرگز آن عکس‌ها را نگرفته یا به اشتراک نگذاشته است. در واقع، صورت او در این تصاویر به کمک فناوری‌های دیجیتالی به تصاویر بدن فرد دیگری اضافه شده است.
این زن در مصاحبه با یورونیوز گفت که آنچه روی داده برای او نتیجه‌ای جز "حبس مادام‌العمر" نداشته است.
گزارشی دیگر که در سال ۲۰۱۹ منتشر شد نیز نشان داد که ۹۶ درصد از محتوای دیپ‌ فیک‌های آنلاین، پورنوگرافی‌های غیرقانونی است. گاه نیز از فناوری دیپ‌‌فیک صوتی، برای تقلید صدای یک نفر با هدف کلاهبرداری از اعضای خانواده‌اش استفاده شده است. یوروپل گزارش خود را با تاکید بر این نکته به پایان رسانده که برای مجریان قانون مهم است «در خط مقدم تحولات دنیای فناوری باقی بماند» تا بتوانند استفاده مجرمانه از هوش مصنوعی را پیش‌بینی و از وقوع آن جلوگیری کنند.
منبع دکتر یونس شکرخواه
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
‏در شبکه‌های اجتماعی شایعه شده عکس سمت راستی به تازگی از سوی ایلان ماسک به عنوان مدیرعامل توییتر تعیین شده. این تصویر توسط ‎#هوش_مصنوعی ساخته شده. ‎#لیندا_یاکارینو، عکس سمت چپ، به تازگی مدیرعامل توییتر شده است. /فکت
نامه

👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
رسانه، روزنامه نگاری و اخبار جعلی
‏در شبکه‌های اجتماعی شایعه شده عکس سمت راستی به تازگی از سوی ایلان ماسک به عنوان مدیرعامل توییتر تعیین شده. این تصویر توسط ‎#هوش_مصنوعی ساخته شده. ‎#لیندا_یاکارینو، عکس سمت چپ، به تازگی مدیرعامل توییتر شده است. /فکت نامه 👈 رسانه نگاری ،اخبارجعلی و مقابله…
ایلان ماسک رسما Linda Yaccarino رو به عنوان مدیرعامل جدید توییتر معرفی کرد

🔹خانم یاکارینو، ۶۰ ساله، بعد از حدود ۱۲ سال از غول رسانه‌ای NBCUniversal جدا میشه تا به مدیرعامل توییتر تبدیل بشه. تا امروز ایشون مدیر ارشد بخش تبلیغات NBC بودن که از سال ۲۰۱۱ ایشون و تیمشون بیش از ۱۰۰ میلیارد دلار برای این شرکت اورده مالی داشتند.
🔹انتخاب خانم یاکارینو با تجربه بالایی که دو دهه در زمینه تبلیغات داره و ارتباطات وسیعی که در این مدت زمان به دست آورده، نشون میده ماسک روی ترمیم ارتباطش با تبلیغ دهندگان بزرگ توییتر، که از زمان خرید توییتر بخش بزرگی از اونها این پلتفرم رو ترک کردن، حساب کرده و قصد داره اون رو به روال سابق و حتی بهتر از گذشته برگردونه.
🔹ماسک گفته که خانم یاکارینو به عنوان مدیرعامل روی بیزنس توییتر تمرکز میکنه و خودش به مدیر ارشد تکنولوژی روی توسعه محصول و تکنولوژ‌یهای جدید تمرکز خواهد کرد
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
Media is too big
VIEW IN TELEGRAM
خبرنگار وال استریت ژورنال [1] برای سنجش نحوه برخورد خانواده و کسب و کارها - خصوصا بانک ها - با کپی ساخته شده از انسان توسط هوش مصنوعی و گمراه کردن روش های احراز هویت دیجیتالی، اقدام به یک آزمایش کرده است که نتایج آن حیرت انگیز است و نشان میدهد هوش مصنوعی تا این لحظه توانایی کامل fabricate کردن صدای شما را پیدا کرده است، ولی تنها چند قدم دیگر تا تدارک حمله fabricate ویدئویی فاصله دارد..

More info:
[1] https://www.wsj.com/articles/i-cloned-myself-with-ai-she-fooled-my-bank-and-my-family-356bd1a3?mod=djemalertNEWS

👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
پلیس چین یک کاربر را به‌خاطر تولید اخبار جعلی با ChatGPT دستگیر کرد

🔹پلیس چین یک مرد را در استان «گانسو» به‌خاطر استفاده از ChatGPT برای نوشتن مقالات خبری جعلی دستگیر کرد. این اولین دستگیری طبق قانون جدید چین برای هوش مصنوعی است. این قانون سوءاستفاده از سرویس‌های هوش مصنوعی برای انتشار اطلاعات جعلی را ممنوع می‌کند.
🔹طبق بیانیه پلیس، این کاربر که «هنگ» نام دارد، متهم به استفاده از چت‌بات OpenAI برای تولید اخبار جعلی درباره یک تصادف قطار مرگبار در چین شده است. مقامات چین در 25 آوریل مقاله اصلی درباره این تصادف را پیدا کردند و سپس چندین مقاله درباره همین تصادف در محل‌های مختلف کشف شد. این اخبار جعلی به‌طور هم‌زمان از طریق ۲۰ حساب در پلتفرم Baijiahao منتشر شدند.
🔹مقامات گانسو با ردیابی این مقالات، به یک شرکت مستقل با مدیریت هنگ روبه‌رو می‌شوند که صاحب چندین وبلاگ خبری است. هنگ اعتراف کرده که از ChatGPT برای بازنویسی اخبار وایرال‌شده استفاده کرده تا از فیلتر تکراری‌بودن مطالب دوری کند. در ادامه، این اخبار در فضای آنلاین منتشر می‌شدند.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔺 گوگل ابزاری برای شناسایی تصاویر ساخته شده توسط هوش‌مصنوعی ارائه می‌کند

🔹 گوگل که به تازگی در مراسم IO 2023 قابلیت‌ها و ابزارهای جدید مبتنی بر هوش‌مصنوعی را معرفی کرد، در راستای کاهش نگرانی کاربران از این تکنولوژی دو قابلیت جدید را ارائه می‌کند. این دو قابلیت جدید که به بخش جست‌وجو تصاویر اضافه می‌شوند قرار است انتشار اطلاعات نادرست به ویژه با استفاده از ابزارهای هوش‌مصنوعی و تصاویر واقع‌گرایانه را کاهش دهد.

🔹 بیشتر کاربران اینترنت (بیش از ۹۰ درصد آنها) از گوگل برای جست‌وجوی اطلاعات و تصاویر استفاده می‌کنند و به گفته بلومبرگ، این شرکت برای جلوگیری از شایعه پراکنی با هوش‌مصنوعی، قابلیت جدیدی به نام « About this image» ( در مورد این تصویر) را به بخش تصاویر اضافه می‌کند.
👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
هشدار سازمان ملل درباره استفاده مخرب از «جعل عمیق»

🔹مشاور هوش مصنوعی در سازمان ملل متحد درباره استفاده مخرب از فناوری جدید جعل عمیق (دیپ فیک) که در آن، هوش مصنوعی می‌تواند تصاویر غیر واقعی اما بسیار نزدیک به واقعیت تولید کند، هشدار داد و گفت که سیاستگذاران باید برای محافظت از مردم بیشتر تلاش کنند.

👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
⭕️ دردسر جدید انتخابات آمریکا؛ جعل عمیق صوتی و تصویری

📌 به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند

♦️ پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانی‌ها درباره توسعه فناوری‌های هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است
indypersian منبع


👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
رسانه، روزنامه نگاری و اخبار جعلی
⭕️ دردسر جدید انتخابات آمریکا؛ جعل عمیق صوتی و تصویری 📌 به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند ♦️ پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانی‌ها درباره توسعه فناوری‌های هوش مصنوعی و استفاده…
دردسر جدید انتخابات آمریکا؛ جعل عمیق صوتی و تصویری

به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند

پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانی‌ها درباره توسعه فناوری‌های هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.
به‌تازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکرات‌ها در انتخابات ریاست جمهوری آمریکا، در رسانه‌های اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوری‌خواهان، سخنرانی می‌کند و می‌گوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.»
هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوق‌العاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاست‌جمهوری ایالات متحده به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند.
ویدیوی هیلاری کلینتون، یکی از هزاران دیپ فیک (جعلعمیق) است که در هفته‌های اخیر برای تبلیغ نامزدهای جمهوری‌خواه انتخابات ریاست‌جمهوری در فضای مجازی از طریق فناوری‌های هوش مصنوعی پیشرفته ساخته شده‌اند. رویترز می‌گوید کارشناسان فناوری‌های پیشرفته معتقدند که ساخت «دیپ فیک‌ها ارزان‌تر از گذشته شده است، به همین دلیل افراد بیشتری به این فناوری دسترسی دارند.»
به این ترتیب، انتظار می‌رود در انتخابات سال ۲۰۲۴ بیش از همیشه اخبار و ویدیوهای جعلی منتشر شود. رویترز با دارل وست، کارشناس ارشد موسسه بروکینگز، دراین‌باره گفت‌وگو کرده است. او می‌گوید: «تشخیص خبر واقعی از جعلی برای رای‌دهندگان ازاین‌پس بسیار دشوار خواهد بود. تصور کنید که به‌عنوان مثال حامیان دونالد ترامپ تا چه اندازه می‌توانند از این فناوری بهره ببرند.»
آزا راسکین، یکی از بنیان‌گذاران مرکز فناوری انسانی -سازمانی غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه می‌کند- نیز به خبرگزاری رویترز می‌گوید که «ابزارهایی مانند دیپ فیک می‌تواند بزرگ‌ترین سلاح برای تولیدات جعلی باشند.»
به‌عنوان مثال، دونالد ترامپ ماه گذشته در پلتفرم خود، «تروث سوشیال»،‌ ویدیوی جعل عمیق از مجری معروف شبکه «سی‌ان‌ان»، اندرسون کوپر، منتشر کرد. سی‌ان‌ان بلافاصله این ویدیو را جعلی خواند، اما سازمان‌دهندگان کارزار انتخاباتی دونالد ترامپ حاضر نشدند دراین‌باره واکنشی نشان دهند.
پلتفرم‌های بزرگ رسانه‌های اجتماعی مانند فیس‌بوک، توییتر و یوتیوب تلاش‌هایی برای ممنوع کردن و حذف ویدیوهای جعلی انجام داده‌اند. بااین‌حال، این ویدیوهای جعلی و اخبار نادرست همچنان بیشترین تاثیر را بر انتخابات آمریکا دارد.
طبق گفته «دیپ مدیا»، شرکتی که بر روی ابزارهای منسوب به هوش مصنوعی و ویدیوهای جعلی کار می‌کند، در سال جدید میلادی تعداد دیپ فیک‌های تصویری سه برابر و تعداد دیپ فیک‌های صوتی هشت برابر مدت‌زمان مشابه در سال ۲۰۲۲ میلادی است. این رسانه تخمین می‌زند که درمجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار جعل عمیق تصویری و صوتی در رسانه‌های اجتماعی در سراسر جهان به اشتراک گذاشته شود.
یکی از دلایل آن، ارزان شدن ساخت و تولید چنین محتوایی است. در سال گذشته یک دیپ فیک (جعل عمیق) صوتی هزاران دلار هزینه داشت، در حالی که در سال جاری میلادی به‌راحتی با چند دلار می‌توان یک جعل عمیق صوتی ساخت.
در حالی که فناوری‌های هوش مصنوعی به‌سرعت در جهان در حال گسترش است، بسیاری از کارشناسان و دانشمندان نگران آینده بشر در کنار گسترش «هوش مصنوعی»‌اند. یکی از آن‌ها پدرخوانده و بنیانگذار هوش مصنوعی، جفری هینتون، است. او در ماه مه گذشته در گفت‌وگو با روزنامه نیویورک‌تایمز اعلام کرد برخلاف گذشته نگران است که فناوری‌های هوش مصنوعی از هوش بشری پیشی بگیرند.
او در این مصاحبه از دولت‌های دموکراتیک جهان خواست محدودیت‌های زیادی برای هوش مصنوعی در نظر بگیرند و نگذارند این فناوری‌ها به دست رهبران کشورهای غیردموکراتیک جهان بیفتد.

👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
⭕️هوش مصنوعی چگونه ممکن است آینده فعالیت در شبکه‌های اجتماعی را تغییر دهد؟
✍🏻محمد رهبری|منتشر شده در روزنامه هم‌میهن

🔹ظهور هوش مصنوعی مولد (Generative AI) و تجاری‌شدن آن، این روزها بسیاری را هیجان‌زده کرده است. امکانات جدیدی که هوش مصنوعی فراهم می‌کند، آینده را کاملا متفاوت از امروز خواهد کرد. اما راجع به این آینده ابهامات زیادی وجود دارد. در کنار امکانات فراوانی که فناوری مبتنی بر هوش مصنوعی برای انسان فراهم می‌کند، احتمالا مخاطرات و آسیب‌هایی هم با خود به‌دنبال خواهد داشت. به‌همین دلیل نیز بسیاری از دانشگاه‌های دنیا پروژه‌های پژوهشی را تعریف کردند تا اثرات مثبت و منفی این تحول بزرگ در عرصه فناوری را بر سایر حوزه مطالعه کنند.

🔸در این میان، Chat GPT و سایر ChatBotهای مبتنی بر هوش مصنوعی، توجه بسیاری از پژوهشگران و علاقه‌مندان به فناوری را به‌خود جلب کرده‌اند. روزی نیست که مطلب جدیدی راجع به امکانات Chat GPT و فرصت‌های آن بحث نشود. یکی از امکانات جذاب Chat GPT تولید متن و محتواست. این ChatBot بر اساس درخواستی که از آن داریم، اقدام به تولید محتوا و متن می‌کند.

🔹امکان تولید متن و محتوا با بکارگیری Chat GPT اگرچه فرصت‌هایی را در اختیار افراد و شرکت‌های تجاری قرار می‌دهد، اما تهدیداتی را هم با خود به‌دنبال دارد. یکی از این تهدیدها، گسترش اخبار جعلی و حتی اکانت‌های جعلی است. امروزه مبارزه با اخبار جعلی یکی از دغدغه‌های مهم خبرنگاران، پژوهشگران و نهادهای مدنی و دولتی است و توسعه الگوریتم‌های مناسب برای تشخیص اخبار جعلی و اکانت‌های فیک در دستور کار آن‌ها قرار دارد. اما با ظهور هوش مصنوعی مولد، ماجرا پیچیده‌تر می‌شود.

🔸یک کاربر توییتری را تصور کنید که به‌طور مرتب از دیگران انتقاد می‌کند. هر توییتی را که نگاه می‌کنید، انتقاد آن کاربر را پایین آن توییت می‌بینید و از خود سؤال می‌پرسید که این کاربر چطور فرصت می‌کند در تمام ساعات شبانه‌روز از دیگران انتقاد کند! این کار می‌تواند با کمک Chat GPT و به‌طور اتوماتیک انجام شود. تنها کافی است که آن اکانت به Chat GPT متصل باشد و به‌طور اتوماتیک هر توییتی می‌بیند برای Chat GPT بفرستد و از آن بخواهد تا یک متن انتقادی راجع به آن توییت بنویسد. سپس نتیجه را در توییتر به‌طور اتوماتیک منتشر کند.

🔹شاید به‌نظر بیاید این کار شدنی نیست و Chat GPT هنوز به آن مرحله نرسیده است که چنین خروجی داشته باشد. من برای امتحان و بررسی این روش، یک توییت از کاربری به نام «مونا گنجیان» را به Chat GPT دادم و از آن خواستم تا نقدی بر این توییت بنویسید. متن توییت و پاسخ Chat GPT را در تصویر زیر می‌توانید ببینید.

🔸در کمال شگفتی، Chat GPT نسبتا پاسخ انتقادی خوبی به توییت اولیه داده است. امری که نشان می‌دهد این ChatBot حتی در تشخیص زبان روزمره فارسی و ارائه پاسخ به آن نسبتا خوب عمل می‌کند. حال تصور کنید آن اکانت توییتری مرتبا توییت‌های مربوط به یک موضوع خاص را به‌طور اتوماتیک به Chat GPT بدهد و پاسخ آن را نیز در پایین هر توییت کامنت بگذارد. این‌گونه یک اکانت بدون این که توسط شخص خاصی اداره شود، مرتبا فعال است و علیه دیگران کامنت می‌گذارد بدون آن که دیگران متوجه شوند هیچ‌کسی پشت آن اکانت نیست.

🔹همین قابلیت می‌تواند در خدمت ساخت اکانت‌ها و اخبار جعلی قرار بگیرد. با توجه به این امکانات، شاید در آینده نزدیک اکانت‌هایی در شبکه‌های اجتماعی فعال شوند که عملا توسط هوش مصنوعی و به‌طور اتوماتیک اداره می‌شوند اما امکان تشخیص آن از یک کاربر واقعی دشوار باشد. در نتیجه این کاربر به‌مرور با فعالیت مستمر در آن شبکه اجتماعی می‌تواند جذب فالوئر کند در حالی که هیچکسی پشت آن نیست. این کاربر همچنین می‌تواند با ادبیاتی شبیه به دیگران محتوایی تولید کند که باورپذیر بوده اما از اساس غلط و دروغ باشد. تا امروز عامل انسانی در کنار هوش مصنوعی نقش مهمی در شناسایی اخبار جعلی داشته است؛ اما افزایش پیچیدگی اخبار جعلی، احتمال شناسایی این قبیل خبرها دشوارتر شود.

🔸با این حساب، به‌نظر می‌رسد توسعه هوش مصنوعی مولد حتی نوع کنشگری در شبکه‌های اجتماعی را نیز دستخوش تغییر کند. در یک جمع‌بندی کلی باید گفت که هوش مصنوعی مولد، مانند انواع دیگر فناوری، توأمان فرصت‌ها و تهدیداتی را ایجاد می‌کند که باید آگاهانه با آن‌ها روبرو شد. فناوری همراه با خود فرصت‌ها و تهدیدهایی را با هم می‌آورد و از همین تکنولوژی نیز باید برای کنترل تهدیدها و شناسایی آن‌ها بهره گرفت و چه‌بسا امکان طراحی الگوریتمی برای شناسایی همین اکانت‌های جعلی نیز ممکن شود. آنچه مسلم است آن است که آینده بسیار متفاوت از امروز خواهد بود.

❇️کانال تحلیل شبکه‌های اجتماعی مجازی
📲@socialMediaAnalysis
فایل پی‌دی‌اف کتاب «پنج گفتار درباره اخبار جعلی» دستاورد تلاش سید غلامرضا فلسفی پژوهشگر حوزه سوادهای رسانه‌ای و خبری در قالب نذر فرهنگی از سوی نویسنده در اختیار علاقه‌مندان قرار گرفت.

این کتاب که چاپ‌های اول و دوم آن طی سال ۱۳۹۹ منتشر شد،
. .https://media.shafaqna.com/news/551340/

👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
پنج_گفتار_درباره_اخبار_جعلي_چاپ_دوم.pdf
1.4 MB
کتاب «پنج گفتار درباره اخبار جعلی» در قالب نذر فرهنگی در اختیار علاقه‌مندان قرار گرفت


👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
🔸تیترهای کلیکی یا تَله کلیک چیست؟
▫️برگرفته از: Marx communications
تيترهای كليكی، پیامدهای نامطلوب بسياری به همراه داشته و اغلب با سایت‌های جعلی خبری و هرزنامه‌هایی مرتبط است که بدون ارائه هیچ ارزشی، ترافیک و درآمد تبلیغاتی برای خود به همراه دارند. اگر تاکنون در زمینه بازاریابی دیجیتال کار کرده‌اید، از میزان اهمیت تیترها در کلیک و ترافیک آگاه هستید.
برای خواندن ادامه مطلب، اینجا را کلیک کنید


👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
Forwarded from عرصه‌های‌ ارتباطی (Younes Shokrkhah)
#روزنامه‌نگاری #خبر
🔸نقش منبع در روزنامه‌نگاری
فردارسانه: در دنیای همیشه در حال تحول رسانه‌ها، منابع نقش مهمی در روزنامه‌نگاری و اخبار دقیق و قابل‌ اعتماد دارند. روزنامه‌نگاران وظیفه اخلاقی دارند که حقیقت را گزارش کنند و بازنمایی عادلانه‌ای از رویدادها ارائه دهند و منابع در دستیابی به این هدف نقش اساسی دارند. آنها به‌عنوان پایه‌ای عمل می‌کنند که داستان‌های خبری بر اساس آن ساخته می‌شوند و به روزنامه‌نگاران اطلاعات دست اول، نظرات کارشناسی و بینش‌های منحصر به فرد ارائه می‌دهند. نقش آن‌ها در روزنامه‌نگاری فراتر از ارائه دهندگان صرف اطلاعات است، زیرا آن‌ها بازیگران کلیدی در ترویج شفافیت، مسئولیت‌پذیری و اعتبار در گزارش‌های خبری هستند. لینک
🔺کارتون با طعم تکنولوژی‌های نوین ارتباطی

آیا هوش مصنوعی به زودی وارد سطح احساسات خواهد شد؟آیا احساسات ما را درک کرده و واکنش صحیح و متناسب خواهد داد؟آیا ماجرا فراتر از اینها بوده و به توان حسی برابر یا بالاتر از انسان خواهد رسید؟آیا این عمل حداقل در ابتدا تقلیدی خواهد بود؟آیا ما الگوهای خوبی برای هوش مصنوعی خواهیم بود؟چقدر احساسات ما توسط هوش مصنوعی درک شده و پاسخ داده خواهد شد؟آیا به هم حسی، هم دردی و ادراک مشترک خواهیم رسید؟آیا هوش مصنوعی معنای عمیق عشق را درک خواهد کرد؟آیا خیلی از ویژگی‌های حسی، انسانی باقی خواهند ماند؟ آیا هوش مصنوعی می تواند احساسات عمیق به طور مثال یک مادر را یا یک عاشق را درک کرده و به تجربه ای برابر انسان در این حوزه ها برسد؟ آیا یک پرستار ربات انسان نما، قادر به بروز احساساتی چون انسان خواهد بود؟آیا توان انتقال اینگونه احساسات میان گونه خود را خواهند داشت؟ ورود هوش مصنوعی به مرحله احساسات خوب است یا بد؟چرا؟مزایا و معایب و تبعات احتمالی آن کدامند؟ آمادگی این تجربه را با هوش مصنوعی داریم؟
اثری از مریم سلیمی

👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
#فیک‌نیوز
🔸سرچ کردن باعث می‌شود اخبار جعلی را زودتر باور کنیم
🔺سرچ‌کردن امروزه برای اکثر ما به فعالیتی روزمره تبدیل شده است. تا حدی که پژوهشگرانی مانند ست استیونز دیویدویتس معتقدند بررسی سابقۀ سرچ‌های انسان‌ها بیشتر از هر منبع دیگری دربارۀ آن شخص به ما اطلاعات می‌دهد. چرا که افراد معمولاً حتی چیزهایی را که خجالت می‌کشند با دیگران مطرح کنند، از موتورهای جستجو می‌پرسند. بدین‌ترتیب شاید بتوانیم بگوییم #موتورهای‌جستجو صمیمی‌ترین دوستان آنلاین ما هستند و چیزهایی دربارۀ ما می‌دانند که هیچکس دیگری نمی‌داند. پژوهشگران #سوادرسانه‌ای عموماً سرچ‌کردن را عادتی مفید می‌دانند که باعث می‌شود فرد در معرض منابع اطلاعاتی گوناگونی قرار بگیرد و با مقایسۀ آن‌ها کمتر در دامِ اطلاعات گمراه‌کننده بیفتد. بااین‌حال، پژوهشی جدید که نتایج آن در نیچر منتشر شده است، نشان می‌دهد که سرچ‌کردن همیشه ما را به افرادی آگاه‌تر تبدیل نمی‌کند. بلکه برعکس، ممکن است باعث شود زودتر اخبار جعلی یا اطلاعات گمراه‌کننده را باور کنیم. کوین اسلت و همکاران او در دانشگاه فلوریدا برای سنجیدن اثر سرچ در باور به اخبار جعلی، تحقیقی پنج‌مرحله‌ای را طراحی کردند که طی آن مشارکت‌کنندگان دربارۀ دو دسته از اطلاعات، در فواصل زمانی گوناگون، سرچ می‌کردند. یک دسته از این اطلاعات درست بودند و دستۀ دیگر را اخبار جعلی و گمراه‌کننده تشکیل می‌داد. آن‌ها اطلاعاتی راجع به همه‌گیری کرونا، واکسیناسیون و اقدامات دونالد ترامپ را به مشارکت‌کنندگان دادند تا با استفاده از سرچ تعیین کنند که درست هستند یا جعلی.
نتایج این تحقیق بسیار نگران‌کننده بود. زیرا پیوستگی معناداری بین میزان استفاده از موتورهای جستجوی اینترنتی و باور به جعلیات دیده می‌شد. نویسندگان این تحقیق می‌گویند احتمالاً مقصر اصلی را باید الگوریتم‌های هدایت‌کنندۀ موتورهای جستجو دانست. زیرا این الگوریتم‌ها اهمیت اندکی به اعتبارسنجی نتایجی می‌دهد که برای کاربران خود پیدا می‌کنند و تکیۀ آن‌ها بر مطالب ساده، پرطرفدار و جنجال‌برانگیز است. آن‌ها به‌جای اینکه «مفیدترین» اطلاعات را به کاربر بدهند، «جالب‌ترین» نتایج را به او نشان می‌دهند. الگوریتم‌های شخصی‌سازی نتایج در موتورهای جستجو نیز می‌توانند این شرایط را بدتر کنند. چرا که در نتیجۀ آن‌ها به شکلی گریزناپذیر به ردپاهای دیجیتال خود می‌چسبیم و احتمال دریافت داده‌ها یا تحلیل‌های متفاوت کاهش می‌یابد.
پیش از این، متخصصان هشدارهای جدی دربارۀ اتکا به سرچ‌های اینترنتی در حوزه‌هایی مانند سلامتی روانی یا مصرف دارویی داده‌اند. اما تحقیق اسلیت و همکارانش نشان می‌دهد که باید این مسئله را در ابعادی بزرگتر نگریست. در دنیای شلوغ و سریع امروز، ما ناچاریم تا دربارۀ خیلی چیزها سرچ کنیم، اما لازم است به تکنیک‌های دیگر سواد رسانه‌ای نیز مجهز باشیم تا در دریای اطلاعات گمراه‌کننده و اخبار جعلی اینترنت غرق نشویم.
آنچه خواندید مروری بود بر مقالۀ کوین اسلیت و همکارانش (سرچ‌های آنلاین دربارۀ اطلاعات نادرست می‌تواند تصور صحت آن‌ها را افزایش دهد) که در شمارۀ دسامبر نیچر به انتشار رسیده بود.
منبع : دکتر یونس شکرخواه
Online searches to evaluate misinformation can increase its perceived veracity


👈 رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
کتاب "مدیریت رسانه‌ای بازارهای فرهنگی" نوشته برند رایتز و با ترجمه جواددلیری روزنامه نگار و دانش آموخته مدیریت رسانه
در ۵۶۰ صفحه منتشر شد
رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
کتاب "مدیریت رسانه‌ای بازارهای فرهنگی" نوشته برند رایتز و با ترجمه جواددلیری روزنامه نگار و دانش آموخته مدیریت رسانه
در ۵۶۰ صفحه منتشر شد
. کتاب "مدیریت رسانه‌ای بازارهای فرهنگی" به مبانی، کارکرد، استراتژی‌های مدیریت رسانه ای و مدل‌های کسب وکار درصنعت رسانه، سینما، تلویزیون، موسیقی و بازی و... می پردازد و قصد دارد برخی مفاهیم جدید را در حوزه مدیریت رسانه بشکافد و نسبت آنها را با تحولات فناورانه و رسانه‌ای کلان نشان بدهد. مدیریت رسانه پیش از اینکه یک علم باشد، اکنون راهکار و ابزاری برای جامعه جدید رسانه‌ای و کسب‌و‌کارهای دیجیتالی است.
کتاب «مدیریت رسانه‌ای بازارهای فرهنگی» در ۱۲ فصل به معرفی شرایطی می‌پردازد که تأثیری بالقوه بر مدیریت در بنگاه‌های رسانه‌ای دارند. فصل اول، به معرفی شرایطی می‌پردازد که تأثیری بالقوه بر مدیریت در بنگاه‌های رسانه‌ای دارند. در ابتدا، تعریفی از واژگان مناسب ارائه می‌شود. سپس، محیط فعالیت بنگاه‌های رسانه‌ای مورد مطالعه قرار می‌گیرد و به تبع آن، بیشترین میزان توجه این بخش به توسعه‌های اخیر در بازارهای رسانه‌ای اطلاعاتی و ارتباطاتی و در کنار آن‌، دغدغه‌های اصلی موجود در صنعت رسانه استفصل دوم مبانی و ویژگی‌های مرتبط با مدیریت رسانه را ارائه می‌کند. این فصل، نوعی طبقه‌بندی‌ نظری و اصطلاحی از حوزه مدیریت رسانه ارائه کرده و ویژگی‌های بازار‌های رسانه‌ای و همچنین محصولات آن را بررسی می‌کند.
در فصل سوم، نظام‌های تولید ارزش بنگاه‌های رسانه‌ای ارائه شده و ساختارهای تولید ارزش، نقاط‌قوت و مهارت‌های کاربردی و همچنین مدل‌های کسب‌و‌کار برای بنگاه‌های رسانه‌ای توضیح داده می‌شود.در فصل چهارم، کارکردهای مدیریت رسانه مورد واکاوابی قرار گرفته است.
در فصل‌های بعدی (پنجم تا دوازدهم) به بحث‌های منحصر به شاخه‌هایی از مدیریت رسانه در انواع بازارهای رسانه‌ای و فرهنگی پرداخته می‌شود
در فصل‌های سیزدهم و چهاردهم با عنوان مدیریت رسانه‌های بین‌المللی و بنگاه‌‌های رسانه‌ای و چندرسانه‌ای یکپارچه بررسی می‌شوند. در فصل آخر چند مطالعه موردی از شاخه‌های مختلف ارائه می‌شود.
کتاب کتاب "مدیریت رسانه‌ای بازارهای فرهنگی" توسط انتشارات ایران منتشر شده است
.
استفاده از این کتاب به مدیران رسانه‌ای و مدیران فرهنگی و صاحبان کسب‌و‌کارهای فرهنگی و رسانه‌ای توصیه می‌شود.

رسانه نگاری ،اخبارجعلی و مقابله با آن
@fake_news_media
آینده‌پژوهی

🔴۱۰ بحران مهم دنیا در دو سال آینده

۱- اطلاعات نادرست در فضای مجازی (Misinformation)

۲- رخدادهای شدید آب و هوایی (Extreme Weather Events)

۳- دو‌قطبی‌‌‌های اجتماعی (Societal Polarization)،

۴- ناامنی سایبری (Cyber Insecurity)

۵- نزاع‌‌‌های مسلحانه بین دولت‌‌‌ها (Interstate Armed Conflict)

۶- فقدان فرصت‌‌‌های اقتصادی (Lack of Economic Opportunities)

۷- تورم (Inflation)

۸- مهاجرت غیر‌داوطلبانه (Involuntary Migration)

۹- نزول اقتصادی (Economic Downturn)

۱۰-آلودگی هوا (Pollution)
منبع :فکت‌پرس
2024/04/27 06:20:51
Back to Top
HTML Embed Code: