شرح خبر
 
تاریخ
1396/10/23
عنوان گزارش شصت و نهمین نشست از نشست‌های علم اطلاعات و دانش‌شناسی «مدیریت یکپارچه سازی داده»
متن
کتابخانه عمومی حسینیه ارشاد در تاریخ 16 دی 1396 شصت و نهمین نشست از سلسله نشست‌های علم اطلاعات و دانش‌شناسی را با موضوع مدیریت یکپارچه سازی داده از ساعت16:30 با پخش آیاتی از کلام‌الله مجید، سرود ملی و کلیپ معرفی فعالیت‌های کتابخانه آغاز کرد. سخنرانان این نشست آقایان دکتر مهدی علیپور حافظی و مهندس مهدی خوشنویس و دبیر جلسه آقای دکتر مصطفی امینی بود.


صحبت‌های آقای مهندس مصطفی امینی:
معمولا یکپارچه‌سازی داده (Data Integration) و برهمکنش پذیری داده (Data Interoperability) را با یکدیگر مطرح می‌کنند و اصطلاحا به آن DII می گویند. معمولا یکپارچه‌سازی داده برای آن دسته از محیط ها، سیستمها، و پروژه‌هایی مطرح می کنند خاصیت عدم تجانس و عدم همگونی داده‌ها وجود دارند. این خاصیت در پروژه‌های داده‌های عظیم (Big Data) تشدید می‌شود. این خاصیت عدم تجانس و همگونی صرفا در لایه دیتا نیست بلکه حتی نرم‌افزار، زیرساخت‌های فنی و شبکه‌های کامپیوتری هم از این موضوع رنج می برند. مؤسسه داما معتقد است که در اولین خوراک و ورودی مدیریت یکپارچه‌سازی داده (DII) از حکمرانی داده (Data Governance) است و مدیریت یکپارچه‌سازی داده، استانداردها و سیاستهای تعیین شده توسط حکمرانی داده در حوزه یکپارچه سازی داده را اجرایی می‌کند.

صحبت‌های آقای دکتر علیپورحافظی:
نگاه دکتر امینی به چالش‌های مهم حوزه یکپارچه‌سازی داده بود که من در ادامه بحث خود به آنها اشاره خواهم کرد. ولی تأکید ویژه من روی خروجی‌ یکپارچه‌سازی داده و مسائل آن است که باید به آنها توجه خاص داشته باشیم. ما امروز سرویس‌هایی را دریافت می‌کنیم که قبلا برای ما ملموس و مهم نبودند. به‌ویژه خدمات بانکی که داده‌های آن از نظر مکانی و سیستمی در جاهای مختلفی هستند. وقتی به این سیستم‌ها سر می‌زنیم متوجه می‌شویم از شبکه‌های مختلف استفاده می‌کنند. چالش اینجا است که می‌خواهیم داده‌هایی را فراخوان کرده و برای کاربر قابل دسترس کنیم مثلا نرم‌افزارهای ویز و گوگل مپ.
تأکید روی این موضوع است که یکپارچه‌سازی داده با هدف مشخص به وجود می‌آید. مثلا  یک کشاورز برای کشت محصولی نیاز به داده‌های هواشناسی، بازار و غیره دارد. این داده‌ها در سرویس‌های مختلف وجود دارد. ما باید این داده‌ها را طوری فراخوانی کنیم که مناسب با نیاز و سواد اطلاعاتی کشاورز باشد. ما با این مواجه هستیم که یکپارچه‌سازی داده به چه اندازه می‌تواند به ما کمک کند.
یکپارچه‌سازی داده بصورت بررسی رویه‌های فنی و کسب و کاری  تعریف می‌شود. این رویه مبتنی بر داده‌هایی هستند که در عمل پراکنده نگهداری می‌شوند. در اینجا توجه به مخاطب و مسئله محور بودن مهم است.
یک سازمان اداری در نظر بگیرید که از سیستم‌های مختلفی از جمله اتوماسیون اداری، سیستم رفاهی کارکنان، سیستم آموزش و غیره استفاده می‌کند. در این میان وقتی می‌خواهیم سرویس مشخص به مدیر، کارشناس یا مشتری ارائه دهیم، این سازمان باید امکان دسترسی به اطلاعات را داشته باشد.
یکپارچه‌سازی داده باید اتفاق بیفتد، وقتی می‌خواهیم یکپارچه‌سازی کنیم باید داده‌ها به شکل دیگر نمایش داده نشوند. داده‌ها باید در سامانه‌های واسط برای مخاطب به شکل یکپارچه نمایش داده شوند مثلا سرویس‌های آنلاین بانکداری.
پس در این فرآیند و چرخه باید فعالیت‌های تحلیلی در داده‌ها اتفاق بیفتد و برای مخاطب به شکل جدید نمایش داده شود. این اقدام همواره در حال مانیتور شدن است و مانیتور شدن کمک می‌کند خدمات با توجه به نیاز ارائه شود.
دلایلی وجود دارد که به ما کمک می‌کند چرا باید به یکپارچه‌سازی داده توجه ویژه داشته باشیم؟.
بحث یکپارچه‌سازی داده تاریخچه طولانی دارد که امروزه از خدمات آن در زندگی روزمره استفاده می‌کنیم.
وقتی داده‌ها از سطوح مختلف یکپارچه می‌شوند منافع مختلفی (فردی، سیستمی، عملکردی، استراتژیک) را برای ما به همراه می‌آورند. به عنوان مثال داده‌ها وقتی یکپارچه‌سازی می‌شوند، من دسترسی به داده‌هایی دارم که قبلا نداشتم. مثلا استفاده از سامانه‌های بانکداری.
یکپارچه‌سازی داده در دو سطح ساختاری یا نحوی (Syntactic) و معنایی (Semantic) مطرح است. در بسیاری از سیستم‌های یکپارچه‌سازی شده به سطح نحوی و ساختاری توجه شده ولی در سیستم‌های کمتری به سطح معنایی توجه می‌شود. در سطح ساختاری و نحوی به برقراری روابط نحوی بین سامانه‌هایی پرداخته می‌شود که می‌تواند تکنیکال، محتوا و شرایط سازمانی باشد.
ما نیاز به کار در 4 مدل مبتنی بر Harvesting، Federated Search، Hybrid داریم. گم شدن یا از دست دادن داده‌ها، درک نادرست از داده‌ها (ماشینی و انسانی)، سازماندهی نامناسب بین داده‌ها، امنیت و کنترل دسترسی به داده‌ها، خطمشی‌های مختلف و پیچیده بودن رویه‌های کسب و کار از چالش‌های یکپارچه‌سازی داده هستند. چالش‌های فنی استقرار سیسم‌های یکپارچه‌سازی داده بسیار کمتر از مسائل فرهنگی داده است.

صحبت‌های آقای مهندس خوشنویس:
یکپارچه‌سازی یکی از Discipline های اصلی در Data Governance است.  DI بحث گسترده‌ای است. ما در دو حوزه اصلی بحث DI را داریم. این دو حوزه Application Integration و Data Integration هستند. در بحث یکپارچه‌سازی اپلیکیشن‌ها هدف این است که ما فرآیندهای کاربردی و اصلی را یکپارچه‌سازی کنیم.
 مهم‌ترین مزیت Data Integration دسترسی و بازیابی سریع داده است. یکی از پروژه‌هایی که ما در آن درگیر بودیم دفاتر پلیس+10 هستند که با زیرسیستم‌های مختلفی کار می‌کند. این مرکز برای کارکردن نیاز به گزارش‌هایی داشت که باید از زیرسیستم‌های مختلف گرفته می‌شد. ما پروژه‌ Warehousing یک سیستم یکپارچه‌سازی گزارش‌گیری که بیسِ آن DI بود، تعریف شد. یعنی یک سیستم که داده‌ها را از سیستم‌های عملیاتی مختلف گرفت و یکپارچه کرد و کنار یکدیگر قرار داد. به همین ترتیب بسیاری از تقلب‌هایی که صورت می‌گرفت برطرف شد. چون داده یکپارچه می‌شد و جلوی بسیاری از تقلب‌ها گرفته می‌شد.داده‌های خراب و فرآیندهای اشتباه در روند DI شناسایی شده  اصلاح می‌شود. کاهش فضای ذخیره‌سازی هم یکی از منافع   DIاست. در این مورد هیچگونه تحلیل داده صورت نگرفت ولی همینکه داده‌ها یکپارچه‌سازی شده و از جاهای مختلف در کنار یکدیگر قرار گرفتند بسیاری از فرآیندهایی که ایراد داشت اصلاح شدند.
اگر در سطح کلان به DI نگاه کنیم متوجه می‌شویم که می‌توان با یکپارچه‌سازی داده، هزینه سودمندی پروژه‌ها را در حوزه آی.تی. مشخص کرد. چرا وقتی در پروژه‌های آی.تی. از هزینه‌ها صحبت می‌کنیم جواب مشخصی نداریم؟. DI هزینه‌های اضافی را کم می‌کند.
Migration، Broadcast، BL- Directional Sync، Correlation، Aggregation از الگوهای یکپارچه‌سازی داده به شمار می‌آیند.


همچنین، روش‌ها و تکنیک‌های یکپارچه‌سازی داده  انبار داده (Data Warehousing)، انبار داده بلادرنگ (Real Time DW) دسترسی عملیاتی داده، مجازی‌سازی داده (Data Virtualization)، یکپارچه‌سازی فرآیندها، فناوری جستجو (Search Technology)، استفاده از وب سرویس و داده‌های مبتنی بر ابر (Cloud Data) هستند.

صحبت‌های مهندس مصطفی امینی (جمع‌بندی نشست):
ما از یکپارچه‌سازی داده‌ها اهدافی را دنبال می‌کنیم. یک از اهداف این است که ما داده‌ها را بصورت امن در فرمت و قالب زمانی موردنیاز جابجا کنیم. این جابجایی باید همراه با یکسان‌سازی باشد و داده‌ها در سیستم از لحاظ ساختار شبیه به هم باشند. در این جابجایی باید قوانین و مقررات را رعایت کنیم. حال چرا باید جابجایی امن باشد، چون امکان دارد در این جابجایی برخی از داده‌ها گم شوند یا اشتباها تغییر پیدا کنند. نکته دیگر این است که یکپارچه‌سازی داده کمک می‌کند تا از پیچیدگی‌های داده‌ها کم شده و یکنواخت شوند. در واقع می‌خواهیم مقدمات یک تحلیل منطقی و درست از داده‌ها را فراهم کنیم تا بتوانیم از آنها داده‌های معنی‌دار استخراج کنیم.
 تکنیک‌های مختلفی برای یکپارچه‌سازی وجود دارد که با ادبیات گوناگون مطرح شده‌اند. یکی از این تکنیک‌ها این است که ما یکپارچه‌سازی داده‌ها را پوینت پوینت انجام دهیم. یکی دیگر از تکنیک‌ها این است که ما باید یک هاب داده  (Data hub) داشته باشیم که بعضی اوقات این هاب می‌تواند همان گذرگاه سرویس سازمان باشد. یعنی من یک نقطه دارم که تمامی منابع داده‌ای به این نقطه وصل هستند و بر اساس ساختار این منبع داده‌ها با هم تبادل می‌شوند. نکته دیگر این است که ما از ETL (ای. تی. ال.) استفاده کنیم. درواقع ETL هم تکنیک و هم ابزار است. این تکنیک بحت استخراج و تبدیل رسایی داده و بارگزاری آن است. یکی دیگر از تکنیک‌ها بحث یکپارچه‌سازی اپلیکیشن‌های سازمانی یا EADI است که بتوانند دیتا مدل‌ها را شبیه به هم کنند. یکی دیگر از بحث‌ها معماری سرویس‌گرا است. در واقع مانعی بین منابع داده‌ای گذاشته می‌شود تا همگونی آنها برای هم دیده نشود.
اگر ما فکر کنیم که صد در صد عملیات یکپارچه‌سازی داده یک عملیات تکنولوژی پایه (Technology base) و ابزاری است این نگاه یک نگاه نادرست است. بخشی از عملیات یکپارچه داده موضوع خلاقانه و فکری است. مثلا استفاده از استانداردهای داده‌ به سیاستگذاری‌ها مرتبط می‌شود. به همین دلیل، می‌گویند موضوع فرآیند یکپارچه‌سازی داده‌ها تجاری (Business) است. در واقع محرک آن آی. تی نیست بلکه Business است. مثلا در بحث انباره داده (Data Warehouse) ما می‌خواهیم داده‌هایی داشته باشیم که به بیزینس در سازمان کمک کند.
برای شنیدن فایل صوتی این نشست اینجا و برای مشاهده اسلاید اینجا و اینجا را کلیک کنید.
منبع