بزرگ دادهها شهرها را هوشمندتر و کارآمدتر میکنند
مزایا و معایب بزرگ دادهها
8 تير 1392 ساعت 11:00
بزرگ دادهها شهرها را هوشمندتر و کارآمدتر میکنند
بزرگ دادهها میتوانند برای کمک به توسعه شهرها، بینش باارزشی به ما ارائه دهند؛ اما به هر حال در این راه نقصهایی هم وجود دارد. چون همه دادهها به طور مساوی ایجاد یا حتی جمعآوری نمیشوند، در مجموعه بزرگ دادهها «مشکلات سیگنالی» وجود دارد.
یعنی حوزههای تاریکی که برخی شهروندان و جوامع در آنها نادیده گرفته شدهاند. بنابراین رویکردهای مربوط به بزرگ دادهها برای برنامهریزی شهری کاملا وابسته به این است که مقامات شهری هم دادهها را بشناسند و هم محدودیتهای آن را.
به گزارش افتانا (پایگاه خبری امنیت فناوری اطلاعات)، به عنوان مثال، «اپلیکیشن استریت بامپ» شهر بوستون، که از طریق گوشیهای هوشمند رانندگانی که در دستانداز میافتند، دادههایی را جمعآوری میکند، روش مناسبی برای گردآوری اطلاعات با هزینه کم است و اپلیکیشنهای بیشتری مشابه این اپلیکیشن در حال ظهورند.
اما اگر مقامات شهری بخواهند تنها بر دادههایی متمرکز شوند که از گوشیهای هوشمند شهروندان به دست میآید، اطلاعات به دست آمده محدود به یک نمونه انتخابی خواهد بود. در این مثال، یعنی طبیعتا از افراد مسن و افرادی که تمکن مالی کمتری دارند و کمتر از گوشیهای هوشمند استفاده میکنند، دادههای کمتری به دست خواهد آمد.
مقامات بوستون تلاشی جمعی برای رسیدگی به این اختلافات داده ای احتمالی انجام دادهاند تا جلوی تخصیص اشتباه منابع را که عامل افزایش نابرابریهای اجتماعی است، بگیرند. به عنوان مثال، میتوان سرویس اینترنتی گوگل فلو ترندز (Google Flue Trends) را در نظر گرفت که ارزیابیهای بهروزی را از فعالیتهای مربوط به آنفلوآنزا برای بیش از ۲۵ کشور فراهم میکند.
محاسبات اشتباه این سرویس در سال ۲۰۱۲ اثر اتکا بر دادههای اشتباه بر خدمات عمومی و سیاست عمومی را به تصویر میکشد. در سال ۲۰۱۲ این سرویس نرخ سالانه ابتلا به آنفلوآنزا را به میزان قابل توجهی زیاد برآورد کرده بود.
این موضوع در مورد وب سایتهای «دولت شفاف» در آمریکا که هدف آن شفافیت اقدامات دولت است و دادههایی را در مورد بخشهای دولتی به صورت آنلاین، منتشر میکنند، صدق میکند.
وجود دادههای بیشتر، لزوما عملکرد دولت مانند شفافیت یا مسوولیت پذیری را توسعه نمیدهد، مگر اینکه صرف نظر از کمک به توانایی دولت برای تفسیر دادهها، مکانیزمهایی برای ایجاد ارتباط بین عامه مردم و نهادها وجود داشته باشد.
انجام هیچ یک از کارهایی که ذکر شد، آسان نیست.
در حقیقت، هنوز تعداد متخصصین ماهر در امور دادهها زیاد نیست. دانشگاهها در حال حاضر در تلاشند تا رشتههایی را در این زمینه تعریف کنند، برنامه درسی بنویسند و تقاضا ایجاد کنند.
گروههای حقوق بشر نیز به دنبال استفاده از بزرگ دادهها هستند تا درگیریها و بحرانها را بهتر بشناسند؛ اما در اینجا هم سوالاتی در مورد کیفیت دادهها و تحلیل آنها وجود دارد.
بنیاد مکآرتور اخیرا جایزهای ۱۷۵ هزار دلاری به «مرکز حقوق بشر دانشگاه کارنیج ملون» اهدا کرده تا این مرکز بررسی کند تجزیه و تحلیل بزرگ دادهها چگونه یافتههای مربوط به حقوق بشر را تغییر میدهند. جی آرونسون، رییس این مرکز، اشاره میکند که در مورد استفاده از دادهها و مسوولیتهای دانشگاهیان و سازمانهای حقوق بشر، پرسشهای مهمی در حال ظهور است.
در بسیاری از موارد مشخص نیست که آیا امنیت و سلامت افرادی که این وقایع را گزارش میکنند، تحت تاثیر این تکنولوژیهای جدید افزایش مییابد یا مورد تهدید قرار میگیرد؟
بزرگ دادهها نباید بین گروههای اجتماعی تبعیض قائل شوند
یکی دیگر از ویژگیهای هدف منتسب به بزرگ دادهها این است که علیه گروههای اقلیت تبعیض کمتری وجود دارد، چون دادههای خام تا حدی در برابر تمایلات اجتماعی مصون هستند و باعث میشوند تحلیلها در حجم گسترده ای صورت بگیرند و بنابراین از تبعیضهای گروهی جلوگیری میکنند.
با این حال، بزرگ دادهها به طور دقیق به هدف «تفکیک افراد در گروههای مختلف» به کار گرفته میشوند، چون میتوانند چگونگی رفتار متفاوت گروهها را توضیح دهند. به عنوان مثال، تحقیقی که اخیرا انجام شده، اشاره میکند به اینکه دانشمندان چگونه اجازه میدهند فرضیاتشان در مورد مسائل نژادی، تحقیق ژئونومیک بزرگ دادهها را شکل دهد.
آلیستایر کرول مینویسد، این احتمال که بزرگ دادهها برای اعمال تبعیض قیمت در کالاها مورد استفاده قرار بگیرند، نگرانیهایی را در مورد حقوق مدنی برمیانگیزد؛ موضوعی که از قدیم با عنوان «کشیدن خط قرمز» شناخته میشد.
بزرگ دادهها تحت عنوان «شخصی سازی» میتوانند برای منزوی کردن گروههای اجتماعی خاص و داشتن رفتار متفاوت با آنها مورد استفاده قرار بگیرند. مثلا شرکتها میتوانند آگهی اینترنتی برای تبلیغ یک کارت اعتباری را فقط به افرادی نشان دهند که درآمد خانوار بیشتری دارند یا سوابق اعتباری آنها در بانکها بهتر است و بقیه افراد از اینکه چنین تبلیغی موجود است،کاملا ناآگاه باشند.
شرکت گوگل حتی یک حق ثبت قیمتی دارد. به این صورت که اگر سابقه خرید قبلی شما نشان دهد که برای خرید کفش تمایل دارید پول بیشتری بپردازید، قیمت اولیه برای خرید آنلاین بعدی شما، بیشتر خواهد بود.
این روزها کارفرمایان تلاش میکنند از بزرگ دادهها برای مدیریت منابع انسانی استفاده کنند و بهرهوری کارمندان خود را افزایش دهند. کارمندان هم از اینکه دادهها در مورد آنها چگونه جمعآوری یا استفاده میشود، هیچ اطلاعی ندارند.
تبعیض میتواند دیگر ابعاد جمعیت شناختی را دربر بگیرد. به عنوان مثال، روزنامه نیویورک تایمز در گزارشی عنوان کرده بود که شرکت تارگت، خرده فروشی بزرگ آمریکایی، چند سال پیش گردآوری پروفایلهای تحلیلی در مورد مشتریانش را آغاز کرده بود.
این شرکت اکنون دادههای زیادی در مورد روند خرید مشتریان در دست دارد و مثلا براساس سوابق خرید یک زن حتی میتواند با اطمینان ۸۷ درصدی پیش بینی کند که چه زمانی او بچه دار میشود. در حالی که این موضوع میتواند بازاریابی تارگت را توسعه دهد، میتوان تصور کرد از چنین تصمیماتی به گونه ای استفاده شود که در برابری اجتماعی تبعیض ایجاد کند.
همچنین اخیرا تحقیق دانشگاه کمبریج در مورد بزرگ دادهها که ۵۸ هزار مورد «لایک» در فیس بوک را مورد بررسی قرار داده، برای پیش بینی اطلاعات شخصی بسیار حساس در مورد کابران، مانند گرایشهای جنسی، قومیت، دیدگاههای مذهبی و سیاسی، ویژگیهای شخصیتی، هوش، خوشحالی، استفاده از مواد مخدر، وضعیت تاهل، سن و جنسیت، مورد استفاده قرار گرفت.
تام فورمسکی، روزنامه نگار، در مورد این مطلب مینویسد: دسترسی آسان کارفرمایان، صاحبخانهها، آژانسهای دولتی، موسسات آموزشی و سازمانهای خصوصی به این اطلاعات حساس، میتواند به شیوه ای مورد استفاده قرار بگیرد که بین افراد تبعیض ایجاد کند و هیچ راهی برای مبارزه با آن وجود ندارد.
در نهایت، اثر بزرگ دادهها در زمینه اجرای قانون را در نظر بگیرید. در بسیاری از ایالتهای آمریکا، پلیس به مدلهای «کنترل پیش گویانه» با استفاده از بزرگ دادهها روی آورده، به امید این که بتواند بسیاری از پروندههای پیچیده را حل کند و حتی از وقوع جرائمی در آینده جلوگیری کند.
اما از طرف دیگر، یکی از فرماندهان پلیس معتقد است: «اگرچه الگوریتمهای کنترل پیشگویانه، دستههایی مانند نژاد یا جنسیت را در نظر نمیگیرد، اما نتیجه عملی استفاده از چنین سیستمهایی بدون حساسیت نسبت به اثر تفاضلی آن میتواند دستورالعملی برای بدتر شدن روابط بین پلیس و جامعه، ایجاد تصور بیعدالتی، اتهام تبعیض نژادی و تهدیدی برای مشروعیت پلیس باشد.»
کد مطلب: 5598