نمونه شبیه سازی مقالات BigData

شبیه‌سازی یا سیمولاسیون، تقلید یک چیز واقعی یا وضعیت اجتماعی یا یک فرایند است و معمولاً متضمن وانمایاندن شماری ویژگی‌ها یا رفتارهای کلیدی در یک سامانهٔ فیزیکی یا انتزاعی است .
شبیه‌سازی در بسیاری زمینه‌ها از جمله مدل‌سازی سامانه‌های طبیعی و انسانی، برای کسب بینش پیرامون نحوهٔ کارشان، به کار می‌رود. موارد دیگر شامل شبیه‌سازی فناوری برای بهینه‌سازی عملکرد، مهندسی ایمنی، آزمایش، آموزش و مهارت‌آموزی‌است.
Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

نمونه شبیه سازی مقالات BigData

پست توسط Administrator » جمعه آگوست 02, 2019 9:39 pm

دسترسی یکپارچه به پلی استورهای داده بزرگ از طریق چارچوب دانش محور
موفقیت های اخیر در برنامه های کاربردی شناختی و هوش تجاری ، توجه و تمرکز بر نمودارهای دانش و مزایای استفاده از داده های معنایی ساخت یافته را مورد توجه قرار داده است. امروزه ، نمودار دانش در حدی فراگیر است که سازمانها غالباً آنها را به عنوان "منبع حقیقت" برای همه داده های خود و سایر مصنوعات دیجیتالی مشاهده می کنند. با این حال ، در بیشتر سازمان ها ، Big Data به اشکال مختلفی شامل سری های زمانی ، تصاویر و متن بدون ساختار می آید که اغلب برای ذخیره سازی کارآمد در یک نمودار دانش مناسب نیستند. این مقاله مجموعه ابزارهای معناشناسی (SemTK) را ارائه می دهد ، چارچوبی که دسترسی به فروشگاه های بزرگ داده های با ماندگاری چندگلوت را امکان پذیر می کند و در عین حال به نظر می رسد که تمام داده ها کاملاً در یک نمودار دانش ضبط شده اند. SemTK اجازه می دهد تا داده ها در چندین سیستم عامل ذخیره شود (به عنوان مثال ، فروشگاه های بزرگ داده مانند Hadoop ، پایگاه داده های نمودار و فروشگاه های سه گانه معنایی) - با بهترین بستر مناسب برای هر نوع داده اتخاذ شده - ضمن حفظ یک رابط منطقی و نقطه دسترسی ، در نتیجه به کاربران یک روکش دانش محور در داده های خود می دهد. ما سهولت استفاده و مزایای ساخت و پرس و جو نمودارهای دانش پلی استور با SemTK را از طریق چهار مورد استفاده صنعتی در GE توضیح می دهیم.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

مبتنی بر وب تجزیه و تحلیل داده های بزرگ مبتنی بر وب در داده های بزرگ به عنوان یک بستر خدمات

پست توسط Administrator » جمعه آگوست 02, 2019 9:41 pm

از آنجا که داده ها به دلیل توسعه شبکه های اجتماعی و رایانش ابری به طرز انفجاری در حال افزایش بوده اند ، یک چالش جدید برای ذخیره سازی ، پردازش و تجزیه و تحلیل حجم زیادی از داده ها وجود دارد. فن آوری های سنتی به یک راه حل مناسب برای پردازش داده های بزرگ تبدیل نمی شوند ، به گونه ای که یک بستر بزرگ داده شروع به ظهور می کند. مسلم است که بستر داده بزرگ به کاربران کمک می کند تا خدمات تجزیه و تحلیل را بطور مؤثر توسعه دهند. با این حال ، هنوز هم برای جمع آوری داده ها ، توسعه الگوریتم ها و خدمات تحلیلی ، مدت زمان زیادی طول می کشد. ما یک پلت فرم تجزیه و تحلیل داده های بزرگ مشترک برای داده های بزرگ به عنوان یک سرویس ارائه می دهیم. توسعه دهندگان می توانند با به اشتراک گذاشتن داده ها ، الگوریتم ها و خدمات با یکدیگر در این سیستم همکاری کنند. بنابراین ، این مقاله ، پلت فرم تحلیلی داده های بزرگ را توصیف می کند که به طور مؤثر از مدیریت داده های بزرگ و توسعه الگوریتم ها و خدمات تحلیلی پشتیبانی می کند ، همکاری با دارندگان داده ، دانشمندان داده و توسعه دهندگان خدمات در وب. سرانجام ، ما یک سرویس تحلیلی فوق داده CCTV را که روی سیستم عامل ایجاد شده است ، معرفی می کنیم.
کلمات کلیدی IEEE
داده های بزرگ
،
پورتال ها
،
همکاری
،
خدمات وب
،
نظارت
،
پخش رسانه ها
INSPEC: فهرست بندی کنترل شده
داده های بزرگ
،
محاسبات ابری
،
تجزیه و تحلیل داده ها
،
گروه های نرم افزاری
،
داده های متا
INSPEC: فهرست بندی بدون کنترل
تجزیه
و تحلیل داده های بزرگ مبتنی بر وب ،
پلت فرم خدمات
،
شبکه اجتماعی
،
محاسبات ابری
،
داده های بزرگ به عنوان یک سرویس
،
صاحب داده
،
دانشمند داده
،
توسعه دهنده خدمات
،
شبکه جهانی وب
،
سرویس تجزیه و تحلیل ابرداده دوربین مدار بسته
کلمات کلیدی نویسنده
BDaaS (داده های بزرگ به عنوان یک سرویس)
،
تجزیه
و تحلیل داده های بزرگ ،
پلت فرم مشترک
،
بستر بزرگ داده
،
دوربین مدار بسته MVS
،
تجزیه و تحلیل فیلم CCTV

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

یک سیستم تجسم گاهشمار برای داده های بزرگ در ترافیک جاده

پست توسط Administrator » جمعه آگوست 02, 2019 9:43 pm

همگرایی سریع فناوری های داده های بزرگ و IoT (اینترنت اشیا) فرصت های بیشتری را در زمینه برنامه های راهنمایی و رانندگی فراهم می کند. در این مقاله ، ما یک ابزار تجسم گاهشمار است که به ما امکان می دهد تا رفتارهای ترافیکی از داده های بزرگ ترافیک جاده را درک کنیم.
یک سیستم حمل و نقل هوشمند (ITS) را می توان به عنوان برنامه یکپارچه ارتباطات ، کنترل و پردازش اطلاعات در بخش حمل و نقل تعریف کرد [1]. منبع داده ITS از چندین دستگاه مانند سنسورهای جاده ، دوربین در چراغ راهنمایی یا سنسورهای وسایل نقلیه است. با توجه به تحولات فن آوری های Big Data و loT (اینترنت اشیاء) ، ITS می تواند فرصت های بیشتری را برای ارائه خدمات هوشمند به کاربران فراهم کند [2] - [4].

کلمات کلیدی IEEE
جاده ها
،
داده های بزرگ
،
تجسم داده ها
،
داده کاوی
،
همایش ها
،
ابر رایانه
،
تجزیه و تحلیل رنگ تصویر
INSPEC: فهرست بندی کنترل شده
داده های بزرگ
،
تجسم داده ها
،
اینترنت اشیاء
،
ترافیک جاده ای
،
محاسبات مهندسی ترافیک
INSPEC: فهرست بندی بدون کنترل
سیستم تجسم گاهشمار
،
داده های بزرگ ترافیک جاده
،
IoT
،
اینترنت چیزها
کلمات کلیدی نویسنده
تجسم گاهشمار
،
ترافیک داده های بزرگ

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

به سمت یک الگوی مصنوعی مهندسی مورد نیاز داده های بزرگ در زمینه پروژه های بزرگ توسعه نرم افزار داده ها: پوستر چکیده

پست توسط Administrator » جمعه آگوست 02, 2019 9:44 pm

به سمت یک الگوی مصنوعی مهندسی مورد نیاز داده های بزرگ در زمینه پروژه های بزرگ توسعه نرم افزار داده ها: پوستر چکیده
در این مقاله ، تحقیقات فعلی ما با هدف تعریف الگوی مورد نیاز مهندسی مهندسی (REAM) در زمینه برنامه های کاربردی نرم افزار Big Data را شرح می دهیم. هدف از این مدل ارائه "تصویری بزرگ" از محصولات مورد نیاز مهندسی است که در پروژه های توسعه نرم افزار Big Data ایجاد و مورد استفاده قرار می گیرد. REAM ابزار مهمی هستند که می توانند به عنوان مرجع برای تعریف مدلهای RE خاص دامنه ، فرآیندهای چرخه عمر سیستم و فرآیندهای مصنوعی محور ، مورد استفاده قرار گیرند ، که در حال حاضر در تحقیقات مهندسی نرم افزار Big Data بی اعتبار هستند.
کلمات کلیدی IEEE
داده های بزرگ
،
نرم افزار
،
مهندسی مورد نیاز
،
مدل های داده
،
مدل سازی محاسباتی
،
مدل سازی متن
،
مهندسی نرم افزار
INSPEC: فهرست بندی کنترل شده
داده های بزرگ
،
مشخصات رسمی
،
مدیریت پروژه
،
مهندسی نرم افزار
INSPEC: فهرست بندی بدون کنترل
پروژه های بزرگ توسعه نرم افزار داده ها
،
مدل های RE خاص دامنه
،
فرآیندهای چرخه زندگی سیستم
،
فرآیندهای مصنوعی محور
،
تحقیقات مهندسی نرم افزار داده های بزرگ
،
مورد نیاز داده های بزرگ مدل مصنوعی مهندسی
،
برنامه های نرم افزاری Big Data
،
محصولات مهندسی مورد نیاز
،
Ream
کلمات کلیدی نویسنده
داده های بزرگ
،
مهندسی مورد نیاز
،
مدل Artefact
،
الزامات داده های بزرگ مدل Artfect مهندسی

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

چارچوبی برای پنج Big V's داده های بزرگ و فرهنگ سازمانی در شرکت ها

پست توسط Administrator » جمعه آگوست 02, 2019 9:44 pm

تجزیه و تحلیل داده های بزرگ به عنوان یک زمینه مهم جدید برای مطالعه و پژوهشگران و پزشکان مطرح شده است و تقاضای قابل توجهی برای راه حل های مشاغل تجاری در اقتصاد مبتنی بر دانش را نشان می دهد. علاوه بر این ، مطالعات تجربی با بررسی تأثیر فن آوری های نوپا بر عملکرد سازمانی ، به ویژه تأثیر فرهنگ سازمانی در پنج داده بزرگ بزرگ پنجم ، کمیاب مانده اند. مطالعه حاضر با هدف پر کردن شکاف انجام شده است. براساس الگوی فرهنگی سازمانی کامرون و کوین ، این تحقیق چارچوبی نظری را ارائه می دهد که شرح می دهد که چگونه هر نوع فرهنگ سازمانی - سلسله مراتب ، قبیله ، آداب دموکراسی و بازار - بر هر یک از داده های بزرگ تأثیر می گذارد. این چارچوب نشان می دهد كه بنگاه ها تحت تأثیر فرهنگ سازمانی خود ، دیدگاه های متفاوتی در مورد اهمیت هر بزرگ پنجم دارند. باید باشد این مطالعه استدلال می کند که سازمان ها باید فرهنگ سازمانی تبعیض آمیز را توسعه داده ، پرورش دهند و آن را حفظ کنند که تأثیر مثبتی در هر یک از پنج Big V دارد تا از پتانسیل کامل داده های بزرگ استفاده کند.

کلید واژه ها
کلمات کلیدی IEEE
داده های بزرگ
،
اختلافات فرهنگی
،
داده کاوی
،
بهره وری
،
شرکتها
INSPEC: فهرست بندی کنترل شده
داده های بزرگ
،
پردازش داده های تجاری
،
تجزیه و تحلیل داده ها
،
مدیریت دانش
،
جنبه های سازمانی
INSPEC: فهرست بندی بدون کنترل
الگوی فرهنگی سازمانی کوین
،
فرهنگ سازمانی دینی
،
تجزیه
و تحلیل داده های بزرگ ،
اقتصاد مبتنی بر دانش محور
،
عملکرد سازمانی
،
شرکت ها
،
فناوری نوپا
،
مدل فرهنگی سازمانی کامرون
کلمات کلیدی نویسنده
داده های بزرگ
،
پنج بزرگ V
،
جلد
،
سرعت
،
انواع
،
صحت
،
ارزش
،
فرهنگ سازمانی

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

استفاده از Big Data Analytics برای ایجاد یک مدل پیش بینی شده برای مشترک اعتصاب جنگنده

پست توسط Administrator » جمعه آگوست 02, 2019 9:44 pm

به دلیل وجود سیستمهای دستیابی نرم افزارهای پیچیده ، با وضوح بالاتر ، نیاز به کسب اطلاعات در مورد سیستمهای دستیابی به امروز ، به دلیل افزایش پیچیدگی و وضوح بالاتر ، سیستمهایی که نیاز به فعالیت در سیستمهای سیستمهای (SOS) ، خانواده-سیستمها (FoS) دارند ، به صورت تصاعدی در حال رشد هستند. ، محیط های مشترک و ائتلاف. متأسفانه ، ابزارها و روشهای لازم برای جمع آوری ، جمع آوری و تجزیه و تحلیل سریع این اطلاعات به طور کلی در رابطه با این پیچیدگی سیستم افزایش نیافته و بنابراین ، تحلیل و ارزیابی را به طور فزاینده ای ناقص و ناکارآمد کرده است. چشم انداز مرکز مدیریت منابع آزمون (TRMC) برای ساختن یک آزمایش و ارزیابی DoD است (T & ه) مدیریت دانش (KM) و توانایی تجزیه و تحلیل که از تجزیه و تحلیل داده های بزرگ تجاری و فناوری های محاسبات ابری استفاده می کند تا کیفیت ارزیابی را بهبود بخشد و زمان تصمیم گیری را کاهش دهد. یک انقلاب ارزیابی ، با شروع برنامه جنگنده مشترک (JSF) ، در حال انجام است تا جامعه T&E بتواند از خواسته های سیستم های سلاح نسل بعدی پشتیبانی کند. محصول واقعی T&E دانش از طریق جمع آوری اطلاعات مربوط به یک سیستم یا مورد مورد آزمایش با این وجود ، توانایی اجتماع T&E برای ارائه این دانش توسط سیستمهای پیچیده تر ، محیطهای پیچیده تر ، و نیاز به چابک تر در حمایت از ابتکارات استراتژیک مانند دستیابی به چابک و استراتژی 3 افست مختل می شود. این افزایش پیچیدگی و نیاز به سرعت باعث تاخیر در تحلیل و مشکلاتی می شود که در طول T&E کشف نمی شوند. دلیل اصلی این کمبودها ابزارها و فرآیندهای قدیمی است که داده ها را برای یافتن ، جمع شدن و تبدیل به دانش سخت می کند. به طور خلاصه ، وزارت دفاع آمریکا زیرساختهای ارزیابی خود را تحول نکرده است زیرا سیستمهای تسلیحاتی خود را متحول شده است. برعکس ، اشخاص تجاری ، مانند مشاهده پزشکی و تشخیص ، توزیع برق ، خرده فروشی ، و تولید صنعتی ، ضمن مدرنیزه کردن قابلیت های تحلیلی ، در روشهای خود پذیرفته اند. نگاه داشتن ...

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

به اشتراک گذاشتن بهترین روشها برای اجرای برنامه های Big Data در جوامع دولتی و علمی

پست توسط Administrator » جمعه آگوست 02, 2019 9:45 pm

کارگروه بزرگ داده های فدرال از طرح فدرال داده های بزرگ پشتیبانی می کند اما توسط دولت فدرال یا آژانس های آن تأیید نمی شود. این کارگروه از جلساتی با مشارکت داخلی و مجازی برای به اشتراک گذاشتن بهترین روشها برای اجرای برنامه های Big Data در جوامع دولتی و علمی استفاده می کند. تصمیم گیرندگان و جامعه علمی به منظور بهره گیری از تغییر داده های بزرگ در مورد چگونگی استفاده از اطلاعات در علم ، پشتیبانی از تصمیم گیری ، کشف داده ها و انتشار داده ها با علم داده در تعامل هستند. فدراسیون های کارگروه از موارد ، انتشارات داده ، راه حلها و فناوری ها استفاده می کنند. طیف مباحث در یک کنفرانس اصلی و بزرگ در یک کنفرانس بزرگ Big Data و خلاصه ای از جلسات اخیر گروه کاری نشان داده شده است.
کلمات کلیدی IEEE
داده های بزرگ
،
دولت
،
معناشناسی
،
جوامع
،
همایش ها
،
بهترین روشها
،
حریم خصوصی داده ها
INSPEC: فهرست بندی کنترل شده
داده های بزرگ
،
پردازش داده های دولت
INSPEC: فهرست بندی بدون کنترل
انتشار داده ها
،
کشف داده ها
،
پشتیبانی تصمیم
،
تبدیل داده های بزرگ
،
علوم داده ها
،
تصمیم گیرندگان
،
دولت فدرال
،
طرح داده های بزرگ فدرال
،
کارگروه داده های بزرگ فدرال
،
جامعه علمی
،
آژانس دولتی
،
برنامه های Big Data
کلمات کلیدی نویسنده
داده های بزرگ
،
استفاده از موارد
،
انتشارات داده
،
تحلیل معنایی
،
حریم خصوصی
،
محاسبات با کارایی بالا
،
جامعه علمی
،
تصمیم گیرندگان

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

امضاهای مبتنی بر شیب برای داده های چندرسانه ای بزرگ

پست توسط Administrator » جمعه آگوست 02, 2019 9:45 pm

با افزایش مداوم داده های چندرسانه ای ناهمگن ، سؤال در مورد چگونگی دستیابی به داده های بزرگ چندرسانه ای به طور مؤثر از اهمیت اساسی برخوردار شده است. به منظور دستیابی سریع به داده های چندرسانه ای پیچیده ، ما پیشنهاد می کنیم با استفاده از مدل های تولیدی ، ویژگی های مبتنی بر محتوا از اشیاء چندرسانه ای را تقریب دهند. امضاهای مبتنی بر شیب نشان می دهد تقریب مبتنی بر محتوا با کیفیت بالا از اشیاء چندرسانه ای و نمایه سازی کارآمد و پردازش پرس و جو در مقیاس بزرگ تسهیل می کند.
ارتباطات چندرسانه ای
،
بانکهای اطلاعاتی چندرسانه ای
،
مدل های سازگاری
،
مدل های داده
،
نمایه سازی
،
داده های بزرگ
،
پردازش پرس و جو
INSPEC: فهرست بندی کنترل شده
نظریه تقریب
،
داده های بزرگ
،
روش گرادیان
،
محاسبات چندرسانه ای
INSPEC: فهرست بندی بدون کنترل
امضاهای مبتنی بر شیب
،
داده های چندرسانه ای بزرگ
،
داده های چند رسانه ای ناهمگن
،
داده های چندرسانه ای پیچیده
،
ویژگی های تقریبی مبتنی بر محتوا
،
اشیاء چندرسانه ای
،
مدل های تولیدی
،
تقریب مبتنی بر محتوا
،
نمایه سازی
،
پردازش پرس و جو
کلمات کلیدی نویسنده
داده های چندرسانه ای بزرگ
،
دسترسی به اطلاعات مبتنی بر محتوا
،
امضاهای مبتنی بر شیب
،
امضاهای ویژه

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

طراحی کانال جریان داده مقیاس پذیر برای پردازش داده های بزرگ

پست توسط Administrator » جمعه آگوست 02, 2019 9:46 pm

این مقاله زیرساختهای بزرگ داده را برای پردازش جریان داده ها تشریح می کند. پروژه ما پلتفرم محاسباتی جریان توزیع شده است که با توسعه سیستم مدیریت جریان داده ، خدمات داده بزرگ مقرون به صرفه و بزرگ را ارائه می دهد. این تحقیق به پیشرفت امکان سنجی پردازش داده های بزرگ برای محاسبات توزیع شده و در زمان واقعی حتی در صورت بارگذاری زیاد کمک می کند.

شماره ورود INSPEC: 15401800
DOI: 10.1109 / ICACT.2015.7224857
ناشر: IEEE
محل کنفرانس: سئول ، کره جنوبی
مقدمه
داده های بزرگ کلمه کلیدی روز است. این مجموعه ای از مجموعه داده ها آنقدر بزرگ و پیچیده است که پردازش ، مدیریت و تجزیه و تحلیل داده ها به روشی فقط در زمان دشوار می شود. رشد انفجاری در میزان داده های ایجاد شده در جهان همچنان باعث شتاب و تعجب ما می شود. علاوه بر این ، داده های بزرگ برای کارآمد کار پیچیده تر است. یک واقعیت جالب از داده های بزرگ Google Trend این است که هند و کره جنوبی با بالاترین علاقه با ایالات متحده سومین دور هستند. بنابراین ، همه فروشندگان بزرگ داده اکنون باید روی هند و کره جنوبی تمرکز کنند [1]. در کره جنوبی ، دولت یک مرکز داده بزرگ جدید را برای کمک به صنعت خود برای دستیابی به غول های فناوری جهانی راه اندازی می کند. این اولین مرکز کشور خواهد بود که به هر کسی امکان می دهد داده های بزرگ را تصحیح و تحلیل کند. این داده های بزرگ در کره جنوبی افزایش می یابد. پروژه ما در کره جنوبی یکی از سیستمهای جایگزین است که امکان محاسبه ، ذخیره و تجزیه و تحلیل داده های بزرگ را فراهم می کند. برای باز کردن سیستم پردازش جریان به عنوان کلیدی برای پتانسیل های داده های بزرگ ، نگران موانع فنی و ایده های دستیابی به موفقیت هستیم.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

محرمانه بودن داده ها در برنامه های داده های بزرگ به چالش می کشد

پست توسط Administrator » جمعه آگوست 02, 2019 9:46 pm

در این مقاله به مسئله محرمانه بودن داده ها در تجزیه و تحلیل داده های بزرگ می پردازیم. در بسیاری از زمینه ها ، با استفاده از تکنیک های یادگیری ماشین در داده های بزرگ ، می توان الگوهای بسیار مفیدی استخراج کرد. با این حال ، باید از محرمانه بودن داده ها محافظت شود. در بسیاری از سناریوها ، محرمانه بودن داده ها می تواند به عنوان پیش نیاز برای به اشتراک گذاری داده ها باشد. ما یک طرح ارائه می دهیم تا محرمانه بودن داده های امن قابل اثبات و بحث در مورد تکنیک های مختلف برای بهینه سازی عملکرد چنین سیستمی باشد.

شماره ورود INSPEC: 15679539
DOI: 10.1109 / BigData.2015.7364111
ناشر: IEEE
محل کنفرانس: سانتا کلارا ، کالیفرنیا ، ایالات متحده
مقدمه
در بسیاری از زمینه ها ، با استفاده از تکنیک های یادگیری ماشین در داده های بزرگ ، می توان الگوهای بسیار مفیدی استخراج کرد. به عنوان مثال ، سوابق پزشکی بیماران معدن می تواند به ارزیابی اثربخشی گزینه های مختلف درمانی و کشف موثرترین روش درمانی برای مبارزه با بیماریهای مختلف کمک کند. با این حال ، این داده ها می توانند بسیار حساس باشند و از محرمانه بودن داده ها محافظت شود. در بسیاری از سناریوها ، محرمانه بودن داده ها می تواند به عنوان یک پیش نیاز برای به اشتراک گذاری داده ها برای فعال کردن تجزیه و تحلیل داده های بزرگ باشد. یکپارچگی نیز مهم است زیرا به نتایج محاسباتی باید اعتماد کرد که صحیح باشد و با آنها دستکاری نشود. ترکیب صحت سنجی یکپارچگی با محافظت از محرمانه بودن داده ها می تواند چالش های دیگری را ایجاد کند.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

برخی از مشکلات اساسی مدیریت داده ها در مهندسی داده های ارتش بر اساس داده های بزرگ

پست توسط Administrator » جمعه آگوست 02, 2019 9:46 pm

در این مقاله چالش های مدیریت داده ها در مهندسی داده های ارتش ، مانند حجم داده های بزرگ ، ناهمگن داده ها ، سرعت بالای تولید و به روزرسانی داده ها ، نیاز به زمان بالا برای پردازش داده ها و منابع داده به طور گسترده ای مورد تجزیه و تحلیل قرار گرفته است. ما در مورد مضرات فن آوری های سنتی مدیریت داده برای مقابله با این مشکلات بحث کردیم. ما همچنین مشکلات اساسی مدیریت داده ها را در مهندسی داده های ارتش از جمله ادغام داده ها ، تجزیه و تحلیل داده ها ، نمایش نتایج تجزیه و تحلیل داده ها و ارزیابی کیفیت داده ها برجسته کردیم.

شماره ورود INSPEC: 17286790
DOI: 10.1109 / ICBDA.2017.8078796
ناشر: IEEE
محل کنفرانس: پکن ، چین
مقدمه
جامعه اطلاعاتی فعلی وارد عصر داده های بزرگ شده است. در مارس 2012 ، دولت ایالات متحده "ابتکار تحقیق و توسعه داده های بزرگ" [1] صادر کرد ، و برنامه های توسعه داده های بزرگ 200 میلیون دلاری سرمایه گذاری را راه اندازی کرد. برنامه دولت آمریكا بعنوان یك اقدام مهم دیگر در زمینه اطلاعات بعد از ما به حساب می آید data داده های بزرگ كه توسط ابزارهای نرم افزاری معمولی در محدوده مشخصی از زمانگیری ، مدیریت و پردازش داده ها به آنها گفته می شود ، نیاز به حالت پردازش جدید است. داشتن توانایی تصمیم گیری قوی تر ، کشف بصیرت و قابلیت های بهینه سازی فرآیند از میزان انبوه و زیاد رشد و تنوع دارایی های اطلاعات. ویژگی های بزرگ داده 5V (IBM): حجم (بزرگ) ، سرعت (سرعت بالا) ، تنوع (تنوع) ، مقدار (چگالی با ارزش پایین) ، صحت (صحت).

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

داده داری باز کاوی برای دموکراتیک سازی داده های بزرگ پیوند یافته است

پست توسط Administrator » جمعه آگوست 02, 2019 9:47 pm

داده ها در همه جا وجود دارد و کاربران غیر متخصص باید بتوانند از آن برای استخراج دانش ، دریافت بینش و تصمیم گیری های آگاهانه سوء استفاده کنند. ارزش دانش کشف شده از داده های بزرگ می تواند از ارزش بیشتری برخوردار باشد اگر در دسترس برای مصرف بعدی و استفاده مجدد باشد. در این مقاله ، زیرساخت هایی را ارائه می دهیم که به کاربران غیر متخصص اجازه می دهد (i) روش های داده کاوی کاربر پسند را در منابع داده بزرگ بکار گیرند ، و (ب) نتایج را به عنوان داده های باز پیوند شده (LOD) به اشتراک بگذارند. سهم اصلی این مقاله رویکردی برای دموکراتیک کردن داده های بزرگ از طریق استفاده مجدد از دانش به دست آمده از فرآیندهای داده کاوی پس از آنکه از نظر معنایی به عنوان LOD یادداشت می شود ، و سپس به دست آوردن دانش باز Linked. کار ما بر اساس یک دیدگاه مدل محور است تا بتوانیم به راحتی با تنوع گسترده قالبهای داده باز روبرو شویم

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

شجره نامه اطلاعات بزرگ شما: حریم خصوصی داده های محور داده های بزرگ در محیط های توزیع شده

پست توسط Administrator » جمعه آگوست 02, 2019 9:47 pm

در این مقاله یک چارچوب کلی برای حمایت از حفظ حریم خصوصی داده محور داده ها در محیط های توزیع شده ، مانند تنظیمات ابر ظهور ، ارائه شده است. چارچوب پیشنهادی را می توان به عنوان جایگزینی برای رویکردهای کلاسیک مشاهده کرد که در آن حریم خصوصی داده های بزرگ از طریق پروتکل های امنیتی الهام گرفته می شود که چندین لایه (پروتکل) را چک می کنند تا به حریم شخصی مورد نظر دست یابند. متأسفانه ، این امر به کل هزینه های محاسباتی قابل توجهی در فرایند کلی تزریق می کند ، بنابراین چالش های مربوطه را مورد توجه قرار می دهد. در عوض رویکرد ما سعی می کند "شجره نامه" نمایندگان داده های خلاصه مناسب را که در بالای مخازن داده های بزرگ هدف محاسبه می شوند ، بشناسد ، از این رو به دلیل بررسی پروتکل از سربارهای محاسباتی جلوگیری می کند. ما همچنین یک چارچوب فوق تحقق مربوطه را ارائه می دهیم ،

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

فناوری اصلی برای تجزیه و تحلیل داده های بصری بزرگ در فضای امنیتی و کاربردهای آن

پست توسط Administrator » جمعه آگوست 02, 2019 9:47 pm

فن آوری های اخطار سنتی به دلیل ویژگی چند مرحله تکامل غیر ثابت رویدادهای پیچیده نامعتبر می شوند. سه چالش ذکر شده در بالا از نزدیک به سه مشکل علمی در فناوری تجزیه و تحلیل داده های بزرگ دیداری در سه سطح مربوط می شود: سنجش داده ها ، فن آوری شناسایی و شناخت الگوی. مطالعه ما با هدف (1) بهره برداری از مکانیسم نقشه برداری کامل بین فضای فیزیکی و فضاهای سنجش چند متغیره برای پر کردن نقاط کور از داده های سنجش ، (2) بررسی مکانیسم همبستگی اشیاء چند مدول در فضاهای سنجش چند متغیره به منظور بهبود تحلیلی عملکرد از فن آوری شناسایی تک ، (3) مطالعه مکانیسم تکامل مکانی و زمانی در کل چرخه زندگی از رویدادهای پیچیده برای گسترش شناخت الگوی از فضا و زمان محلی. فضای امنیتی فضای فیزیکی با توانایی محافظ جامع است ، که شامل سنجش همه جا ، شناسایی قابل اعتماد ، تجزیه و تحلیل روند نافذ و نزدیک شدن به اخطار خطر در هر زمان ، هر مکان ، برای هر شی و هرگونه رفتاری است. این پژوهش با هدف ایجاد تئوری فضای امنیتی ، به سه سطح کسب اطلاعات و ... تقسیم می شود.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

علم داده در مقابل داده های بزرگ @ UTM مرکز داده های بزرگ

پست توسط Administrator » جمعه آگوست 02, 2019 9:47 pm

سونامی داده های بزرگ اخیراً به مالزی رسیده است که در حال بیدار کردن صنعت و مجالس آکادمی است تا بطور تهاجمی به بصیرت ، بینش و چالش های دوراندیشی بپردازد و مالزی را به عنوان یکی از برترین بازیکنان جهان در اقتصاد اطلاعات بزرگ داده برای دهه آینده بدست آورد. توسعه سریع فناوری اطلاعات و ارتباطات (ICT) در این دوره به دلیل افزایش تعداد کاربرانی که به داده ها دسترسی پیدا می کنند ، بسیار مهم است. این پدیده به عنوان داده های بزرگ ابداع شده است. داده های بزرگ چیست ؟؟؟ ما داده های بزرگ را به عنوان دارایی هایی که برای مقابله با رفتارهای عجیب و غریب از مجموعه داده ها نیاز دارند به داده های بزرگی می پردازیم که اندازه آنها فراتر از توانایی ذخیره داده معمولی برای مدیریت ، استخراج و تجزیه و تحلیل بر این اساس است. این رفتار عجیب و غریب به سه شخصیت اصلی نیاز دارد: حجم ، سرعت و تنوع که اساساً به معماری ، تکنیک های جدید ، و الگوریتم ها و تجزیه و تحلیل ها برای کشف دانش طلایی و پنهان از چاقی اطلاعات. از این منظر ، ما تجربیات خود را در راه اندازی پلت فرم Data Science / Big Data ، الگوریتم ها و ابزاری برای تراز کردن با پلاگین و بازی داده های بزرگ در محیط دانشگاهی و همچنین خدمات خود به جامعه و صنایع نشان می دهیم.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

پیش پردازش داده های بزرگ: بستن حلقه اجرای کیفیت داده

پست توسط Administrator » جمعه آگوست 02, 2019 9:48 pm

در عصر بزرگ داده ، اطلاعات اصلی برای هر سازمان دولتی ، نهادی و خصوصی است. تلاش ها برای استخراج بینش های بسیار با ارزش انجام شده است که اگر داده ها از کیفیت پایین برخوردار نباشد ، نمی توانند اتفاق بیفتند. بنابراین ، کیفیت داده (DQ) به عنوان عنصر اصلی در مرحله پردازش داده های بزرگ در نظر گرفته می شود. در این مرحله ، داده های با کیفیت پایین به زنجیره ارزش Big Data نفوذ نمی کنند. در این مقاله به کشف قوانین کیفیت داده (DQR) پس از ارزیابی کیفیت و قبل از پردازش Big Data می پردازیم. ما یک مدل کشف DQR را پیشنهاد می کنیم تا فعالیتهای قبل از پردازش را بر اساس الزامات کیفیت افزایش و هدف گذاری کند. ما تعریف کردیم ، مجموعه ای از فعالیتهای قبل از پردازش مرتبط با ابعاد کیفیت داده (DQD) برای اتوماسیون فرآیند تولید DQR. بهینه سازی قوانین بر روی قوانین معتبر اعمال می شود تا از فعالیت های قبل از پردازش چند پاس جلوگیری کند و قوانین تکراری را حذف می کند. آزمایشهای انجام شده پس از استفاده از DQR کشف شده و بهینه سازی شده روی داده ها ، نمرات افزایش کیفیت را نشان داد.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

یک چارچوب بزرگ تحلیلی داده برای پیش بینی شکایات نادر مشتری: یک مورد استفاده برای پیش بینی شکایات اعضای MA به CMS

پست توسط Administrator » جمعه آگوست 02, 2019 9:48 pm

مراكز خدمات Medicare و Medicaid (CMS) هر ساله براي سنجش كيفيت مراقبت از قراردادهاي Medicare Advantage (MA) ، رتبه بندي هاي ستاره ستاره Medicare را منتشر مي كند. یکی از اقدامات مهم ، شکایات مربوط به برنامه درمانی است که در ماژول پیگیری شکایات (CTM) ثبت شده است. شکایات منجر به CTM اتفاقات نادری است: برای قراردادهای MA با رتبه 2-5 ستاره ، تعداد شکایات برای هر 1000 عضو از 0-10 تا 1.84 طی 5 سال گذشته است. کاهش تعداد شکایات برای برنامه های کارشناسی ارشد بسیار مهم است زیرا تأثیر آن بر بازپرداخت CMS به برنامه های MA است. پیش بینی و کاهش شکایات کاری بسیار چالش برانگیز است و ملاحظات اخلاقی را در حقوق بیماران و حریم خصوصی بیماران دربر می گیرد. در این تحقیق ، یک چارچوب بزرگ تحلیلی داده برای پیش بینی شکایات نادر مشتری ساخته ایم. اولین، ما خطوط لوله بزرگی برای مصرف داده ها بر روی پلتفرم Hadoop ایجاد کردیم: الف) داده های شکایات مشتری از طرح مشتری از CTM از 3 سال گذشته استفاده کنید. b) داده های مرکز تماس با برنامه درمانی برای اعضای MA از 3 سال گذشته ، شامل داده های ساختاری و متن متنی بدون ساختار برای تماس ها. ج) ادعاهای پزشکی اعضای MA ، از جمله آمار جمعیتی و تاریخ ثبت نام از اعضا ، استعفا دهید. د) ادعا در مورد داروخانه اعضای MA است. ه) داده های یکپارچه و یکپارچه از منابع فوق را ادغام کرده و داده ها را با ویژگی های مهندسی اضافی در یک جدول گسترده بزرگ ، یک ردیف در هر عضو برای تجزیه و تحلیل و مدل سازی غنی سازی کنید. دوم ، ما یک مجموعه بزرگ تصمیم گیری مبتنی بر درخت بزرگ با الگوریتم بیش از نمونه گیری (LEOS) طراحی کردیم که از جنگل تصادفی اما با استفاده زیاد از کلاس هدف برای افزایش تعصب تقلید می کند ، و با استفاده از هزاران مجموعه داده آموزش آموزش اندازه ثابت ، محاسبه موازی خوشه های Hadoop را انجام می دهد ، و برای هر یک از این مجموعه داده ها ، یک درخت تصمیم با ساختار درخت ثابت مشابه ، و آنها را جمع می کند. سوم ، ما چارچوب و الگوریتم یادگیری LEOS را با داده های واقعی تأیید کردیم ، و همچنین در مورد مباحث اخلاقی که در پردازش داده ها و استفاده از یافته ها با آنها روبرو بودیم ، بحث کردیم ...

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

مطالعه خوشه داده های بزرگ در کارخانه هوشمند با استفاده از Raspberry-Pi

پست توسط Administrator » جمعه آگوست 02, 2019 9:48 pm

در کارخانه هوشمند ، IoT (اینترنت اشیا) برای گرفتن اطلاعات تولید شده توسط تأسیسات تولید ، ذخیره و تجزیه و تحلیل داده های تولید شده در زمان واقعی با استفاده از فناوری Big Data استفاده می شود. یک سیستم پردازش توزیع شده موازی برای تجزیه و تحلیل داده ها و پردازش داده های بزرگ ، نیاز به یک سرور با ظرفیت بزرگ و هزینه بالایی برای ساخت زیرساخت ها دارد. در بدست آوردن داده های کف فروشگاه ، Raspberry-Pi که یک کامپیوتر منفرد کم هزینه است ، وسیله ای بسیار کارآمد برای خوشه بندی داده های بزرگ است. در این مقاله ، ما یک مطالعه موردی در مورد امکان پذیری Raspberry-Pi به عنوان یک خوشه بزرگ داده در کارخانه هوشمند را نشان داده ایم.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

بسترهای نرم افزاری مبتنی بر میکروسرویس برای مدیریت کارآمد داده های اقیانوس شناسی

پست توسط Administrator » جمعه آگوست 02, 2019 9:49 pm

امروزه به لطف فن آوری های جدید ، شاهد انفجار داده ها در زمینه های مختلف ، از بالینی گرفته تا محیط زیست هستیم. در چنین سناریویی ، یک مسئله مشهور در Big Data با مدیریت کارآمد و تجسم به منظور استخراج بینش ارائه می شود. هدف از این کار علمی ، ارائه بستر ابتکاری برای مدیریت اکتساب اقیانوس شناسی است. به طور خاص ، ما دو تکنیک تجسم نوآورانه را ارائه می دهیم: نمای کلی و مشاهده خاص سایت. آزمایش ها از نظر عملکرد و تجربیات کاربر ، رویکرد خوب ما را برجسته می کنند.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

یک چارچوب پردازش داده های بزرگ رمان برای برنامه های مراقبت های بهداشتی: داده های بزرگ-بهداشت و درمان در یک جعبه

پست توسط Administrator » جمعه آگوست 02, 2019 9:49 pm

در اینجا ما یک چارچوب بزرگ داده جدید برای برنامه های مراقبت های بهداشتی ارائه می دهیم. داده های بهداشتی به دلیل تنوع ، صحت و حجم این نوع داده ها به خوبی برای پردازش و تجزیه و تحلیل های bigdata مناسب هستند. در زمان های اخیر ، بسیاری از مناطق تحت مراقبت های بهداشتی شناسایی شده اند که می توانند به طور مستقیم از چنین درمانی بهره مند شوند. با این حال ، تنظیم این نوع معماری ها امری بی اهمیت نیست. ما یک رویکرد جدید در ساخت یک چارچوب داده های بزرگ ارائه می دهیم که می تواند با برنامه های مختلف مراقبت های بهداشتی با استفاده نسبی تطبیق یابد ، و این امر به یک جعبه یک مرحله ای "بزرگ-داده-بهداشتی-در-یک-جعبه" تبدیل می شود.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

جمع آوری داده های بزرگ و خطوط لوله معدن برای CRM با استفاده از منبع آزاد

پست توسط Administrator » جمعه آگوست 02, 2019 9:49 pm

مدیریت ارتباط با مشتری (CRM) در حال حاضر سریعترین بخش در حال رشد نرم افزار سازمانی است که تخمین زده می شود تا سال 2017 به 36.5B دلار در سراسر جهان افزایش یابد. در همان زمان ، رشد داده های بزرگ منجر به تکامل یک نرم افزار بزرگ داده منبع باز (در اصل توسط نرم افزار Apache) شده است که رقیب بانک اطلاعاتی شرکت های سنتی (RDBMS) است. فن آوری های جدید مانند Kafka ، Storm ، HBase در کنار فن آوری های مستقرتر مانند Hadoop MapReduce و Mahout این پشته منبع باز را به طرز چشمگیری غنی کرده اند. امروزه ، شرکت ها برای انتخاب برنامه های داده های بزرگ خود ، تصمیم می گیرند که کدام پشته را انتخاب کنند. با این حال، هیچ مطالعه منتشر شده در ادبیات در مورد خطوط لوله داده بزرگ شرکت با استفاده از مؤلفه های منبع باز پشتیبانی از CRM وجود ندارد. سؤالات ویژه ای که شرکت ها دارند عبارتند از: چگونه داده ها در چنین خطوط لوله پردازش و تجزیه و تحلیل می شوند؟ بلوک های ساختمانی از جمله خطوط لوله چیست؟ هر مرحله از این پردازش چه مدت طول می کشد؟ در این کار ، ما به این سؤالات برای مقیاس وسیعی (خدمت به بیش از 100 میلیون مشتری) خط لوله CRM صنعتی که شامل داده کاوی است ، پاسخ می دهیم و به چندین برنامه کاربردی ارائه می دهید. خط لوله ما به طور گسترده دو بخش دارد. اولین بخش جمع آوری اطلاعات است که از کافکا ، طوفان و HBase استفاده می کند. دوم بخش داده کاوی است که از Mahout و Hadoop MapReduce استفاده می کند. ما همچنین در قسمت دوم زمان بندی برای کارهای مشترک ارائه می دهیم مانند پردازش داده ها برای یادگیری ماشین ، خوشه بندی ، نمونه گیری مخزن ،

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

ارزیابی کیفیت داده ها برای نظارت بر خط و سیستم اندازه گیری کیفیت قدرت بر اساس تئوری داده های بزرگ و داده های بزرگ

پست توسط Administrator » جمعه آگوست 02, 2019 9:50 pm

در حال حاضر ، سیستم نظارت و اندازه گیری آنلاین از کیفیت انرژی حجم زیادی از داده ها را جمع آوری کرده است. در عصر داده های بزرگ ، این داده های ادغام شده از سیستم های مختلف با مشکلات کاربرد داده های بزرگ روبرو خواهند شد. در این مقاله یک روش سیستم ارزیابی کیفیت داده برای سیستم نظارت بر اندازه گیری و اندازه گیری کیفیت قدرت بر اساس داده های بزرگ و قدرت داده برای ارزیابی یکپارچگی ، افزونگی ، دقت ، بهنگام بودن ، هوشمندی و سازگاری مجموعه داده ها و داده های واحد ارائه شده است. قانون ارزیابی ویژه ای که مطابق با وضعیت نظارت بر خط و سیستم اندازه گیری کیفیت برق باشد ، برای یافتن مشکلات کیفیت داده ابداع می شود. بنابراین پشتیبانی از داده قوی برای کاربرد داده های بزرگ با کیفیت برق را فراهم می کند.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

هستی شناسی OWL برای پشتیبانی از خدمات معنایی در بسترهای داده بزرگ

پست توسط Administrator » جمعه آگوست 02, 2019 9:50 pm

در سال های گذشته ، علاقه زیادی به استفاده از مدل های Big Data برای پشتیبانی از ویژگی های تحلیل داده های پیشرفته وجود داشت. بسیاری از شرکت ها و سازمان ها فاقد تخصص IT و بودجه کافی برای بهره مندی از مزایای آنها هستند. به منظور پر کردن این شکاف ، می توان از یک روش مبتنی بر مدل برای Big Data Analytics-as-a-service (MBDAaaS) استفاده کرد. مدل ارائه شده ، ساخته شده توسط مدل های اعلانی ، رویه ای و استقرار (زیر) ، می تواند برای انتخاب مجموعه ای از خدمات قابل استفاده بر اساس مجموعه ای از ترجیحات کاربر که یک کمپین بزرگ داده (BDC) شکل می دهد ، استفاده شود. استقرار BDC مستلزم آن است که انتخاب خدمات باید براساس ترجیحات کاربر منسجم و غیر متناقض انجام شود. در این مقاله برای حل این مسئله یک هستی شناسی OWL پیشنهاد می کنیم.

Administrator
Site Admin
پست: 293
تاریخ عضویت: چهار شنبه ژولای 17, 2019 10:01 am

تجزیه و تحلیل داده های بزرگ از روند استعمال دخانیات جوانان در ایالات متحده

پست توسط Administrator » جمعه آگوست 02, 2019 9:52 pm

از آنجا که در حال حاضر مقادیر زیادی از داده ها در صنعت مراقبت های بهداشتی تولید می شوند ، از فناوری های داده بزرگ برای پردازش این داده ها استفاده می شود. استعمال دخانیات در بین جوانان ایالات متحده قابل توجه بوده است. در این تحقیق ، از تکنیک های داده بزرگ مانند R و Tableau برای کشف روند مصرف دخانیات در بین جوانان در ایالات متحده استفاده می کنیم. نتایج حاکی از آن است که تعداد سیگاری مردان جوان بیشتر از افراد سیگاری زن جوان است. این نتایج همچنین حاکی از آن است که بیش از 51 درصد از افراد سیگاری فعلی جوانان می خواهند سیگار را ترک کنند.

ارسال پست

بازگشت به “شبیه سازی کامپیوتری و پیاده سازی مقالات”