האתגר בניהול נתונים (data) בהיקפים גדולים, שאינם מוזנים בצורה מתוכננת מראש ואינם כפופים לשיטת אפיון מרכזית, הפך את התחום ה
טכנולוגי של "ביג דאטה" לעניין מרכזי בטכנולוגיית מידע (IT), ובשנת 2011 נכנס המונח לשימוש רחב. חלק גדול מהדיונים בנושא עוסקים בבעיית הנפחים הגדולים, שמעל מאות טרה-בתים, ובקצבי הגעה מהירים מאוד וממקורות רבים ושונים. מסדי הנתונים היחסיים הקיימים אינם בנויים לאחסון ולניתוח כמויות מידע כה גדולות, שרובן אינן מגיעות באופן מפורמט לפי תבניות אחידות וידועות מראש. העלות הזולה יחסית של אמצעי האחסון, מצד אחד, והכמות האדירה של מידע המגיע משלל מקורות (אתרי אינטרנט, רשתות חברתיות, מכשירים סלולריים, מצלמות אבטחה, חיישנים ועוד), מצד שני, גורם לכך שמידע נאגר ללא מחיקה, ומאפשר יכולות ניתוח וזיהוי תבניות (patterns) ומִתְאָמִים, הנדרשות בעולמות תוכן רבים. עקב כך, התפתחו החל מסוף העשור הראשון של המאה ה-21 כלים ואמצעים לאחסון, ניהול וניתוח של כמויות מידע עצומות אלה, תחת הכותרת הכללית "נתוני עָתֵק" ("Big Data").