Web Analytics Made Easy - Statcounter

تیم رسانه‌ای شبکه «شاد» درباره پیامی که از امروز به هنگام باز کردن این برنامه برای برخی کاربران ارسال شده بود، مبنی بر اینکه «این برنامه مضر شناسایی شده است» توضیحاتی ارائه کرد.

به گزارش ایسنا، در اطلاعیه‌ای که از سوی تیم رسانه‌ای شاد منتشر شده، آمده است: 

«حفظ امنیت و حریم خصوصی کاربران، اولویت اصلی تیم توسعه‌دهنده شاد است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

شاد همواره با حداکثر دقت و تعهد، به حفظ اطلاعات و داده‌های کاربران می‌پردازد و دائماً سعی در بهبود فرآیندهای امنیتی خود دارد.

اخیرا، برخی از کاربرانی که از نسخه 3.0.0 شاد استفاده می‌کنند با یک هشدار امنیتی از سوی گوگل پلی روبرو شده‌اند که شاد را به عنوان یک برنامه مضر شناسایی کرده است. تیم توسعه‌دهنده شاد جهت رفع هرگونه نگرانی از سوی کاربران، این مساله را به‌طور جدی مورد بررسی قرار داده است.

متاسفانه دلیل ارسال این هشدار از سوی گوگل پلی تاکنون مشخص نشده و احتمالاً گزارشات نادرست و شیطنت‌هایی از سوی برخی افراد، باعث ایجاد این هشدار شده‌ است.

لازم به ذکر است نسخه جدید و بهبود یافته اپلیکیشن شاد با شروع سال تحصیلی جدید در دسترس مخاطبان گرامی قرار گرفته است و کاربران با بروزرسانی برنامه، می‌توانند بدون دریافت هشدار امنیتی از سوی توزیع‌کنندگان، به سرویس‌های جدید و طراحی متفاوت شاد دسترسی داشته باشند.

توصیه ما به کاربران این است که جدیدترین نسخه اپلیکیشن شاد یعنی نسخه 3.5.5 را از منابع معتبر مانند سایت رسمی شاد به آدرس Shad.ir، کافه بازار یا مایکت دریافت و نصب کنند.»

به گزارش ایسنا، طی امروز برخی کاربران شبکه "شاد" اعلام کردند که به هنگام باز کردن این برنامه بر روی دستگاه الکترونیکی خود با پیام "این برنامه مضر شناسایی شده است" مواجه شده‌اند.

همچنین در ذیل این پیام، توضیح آورده شده بود که «این برنامه در تلاش است از داده‌های شخصی شما مانند پیامک‌ها، عکس‌ها، صورت‌های ضبط شده و یا سابقه تماس شما جاسوسی کند».

با این حال تیم رسانه‌ای شاد طی این اطلاعیه‌ اعلام کرده است که دلیل ارسال این هشدار از سوی گوگل پلی تاکنون مشخص نشده و احتمالاً گزارشات نادرست و شیطنت‌هایی از سوی برخی افراد، باعث ایجاد این هشدار شده‌ است.

انتهای پیام

منبع: ایسنا

کلیدواژه: شبکه شاد پليس شوراي شهر تهران تهران شهرداري تهران

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.isna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ایسنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۱۳۷۲۹۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • امکان ارسال پیوست بدون اینترنت در واتس‌اپ
  • نارضایتی کاربران از ارسال نشدن پیامک بانکی برای تراکنش‌های کمتر از ۳۰ هزار تومان
  • طراحی جدید یوتیوب پس از انتقاد‌های شدید از دسترس خارج شد
  • بروزرسانی بزرگ واتس آپ در راه است
  • رستگاری به افق فلسطین
  • هشدار/ این دو موبایل دیگر بروزرسانی دریافت نخواهند کرد
  • بروزرسانی های اساسی واتساپ در راه است
  • مخاطب ۶۹.۲درصدی ثمره تحو ل رسانه ملی
  • هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند
  • چرا ایرانی‌ها بیشتر در دام بدافزار‌ها می‌افتند؟