بیانیه «شاد» درباره شائبه امنیت نسخه قدیم این شبکه/ چرایی ارسال پیام «شاد مضر است» به مخاطبان
تاریخ انتشار: ۳۰ آبان ۱۴۰۲ | کد خبر: ۳۹۱۳۷۲۹۳
تیم رسانهای شبکه «شاد» درباره پیامی که از امروز به هنگام باز کردن این برنامه برای برخی کاربران ارسال شده بود، مبنی بر اینکه «این برنامه مضر شناسایی شده است» توضیحاتی ارائه کرد.
به گزارش ایسنا، در اطلاعیهای که از سوی تیم رسانهای شاد منتشر شده، آمده است:
«حفظ امنیت و حریم خصوصی کاربران، اولویت اصلی تیم توسعهدهنده شاد است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
اخیرا، برخی از کاربرانی که از نسخه 3.0.0 شاد استفاده میکنند با یک هشدار امنیتی از سوی گوگل پلی روبرو شدهاند که شاد را به عنوان یک برنامه مضر شناسایی کرده است. تیم توسعهدهنده شاد جهت رفع هرگونه نگرانی از سوی کاربران، این مساله را بهطور جدی مورد بررسی قرار داده است.
متاسفانه دلیل ارسال این هشدار از سوی گوگل پلی تاکنون مشخص نشده و احتمالاً گزارشات نادرست و شیطنتهایی از سوی برخی افراد، باعث ایجاد این هشدار شده است.
لازم به ذکر است نسخه جدید و بهبود یافته اپلیکیشن شاد با شروع سال تحصیلی جدید در دسترس مخاطبان گرامی قرار گرفته است و کاربران با بروزرسانی برنامه، میتوانند بدون دریافت هشدار امنیتی از سوی توزیعکنندگان، به سرویسهای جدید و طراحی متفاوت شاد دسترسی داشته باشند.
توصیه ما به کاربران این است که جدیدترین نسخه اپلیکیشن شاد یعنی نسخه 3.5.5 را از منابع معتبر مانند سایت رسمی شاد به آدرس Shad.ir، کافه بازار یا مایکت دریافت و نصب کنند.»
به گزارش ایسنا، طی امروز برخی کاربران شبکه "شاد" اعلام کردند که به هنگام باز کردن این برنامه بر روی دستگاه الکترونیکی خود با پیام "این برنامه مضر شناسایی شده است" مواجه شدهاند.
همچنین در ذیل این پیام، توضیح آورده شده بود که «این برنامه در تلاش است از دادههای شخصی شما مانند پیامکها، عکسها، صورتهای ضبط شده و یا سابقه تماس شما جاسوسی کند».
با این حال تیم رسانهای شاد طی این اطلاعیه اعلام کرده است که دلیل ارسال این هشدار از سوی گوگل پلی تاکنون مشخص نشده و احتمالاً گزارشات نادرست و شیطنتهایی از سوی برخی افراد، باعث ایجاد این هشدار شده است.
انتهای پیام
منبع: ایسنا
کلیدواژه: شبکه شاد پليس شوراي شهر تهران تهران شهرداري تهران
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.isna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ایسنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۱۳۷۲۹۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هشدار محققان گوگل: کاربران ممکن است به دستیارهای هوش مصنوعی وابستگی عاطفی پیدا کنند
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.
باشگاه خبرنگاران جوان علمی پزشکی فناوری