ольши́е да́нные (. big data, [ˈbɪɡ ˈdeɪtə]) — обозначение структурированных и неструктурированных данных огромных объёмов и значительного многообразия, эффективно обрабатываемых горизонтально масштабируемыми программными инструментами, появившимися в конце 2000-х годов и альтернативных традиционным системам базами данных и решениям класса business intelligence[1][2][3].
в широком смысле о «больших данных» говорят как о социально- феномене, связанном с появлением технологических возможностей анализировать огромные массивы данных, в некоторых проблемных областях — весь мировой объём данных, и вытекающих из этого трансформационных последствий[4].
в качестве определяющих характеристик для больших данных традиционно выделяют «три v»: объём (. volume, в смысле величины объёма), скорость (velocity в смыслах как скорости прироста, так и необходимости высокоскоростной обработки и получения результатов), многообразие (variety, в смысле возможности одновременной обработки различных типов структурированных и полуструктурированных данных)[5][6]; в дальнейшем возникли различные вариации и интерпретации этого признака[⇨].
с точки зрения информационных технологий в совокупность подходов и инструментов изначально включались средства массово-параллельной обработки неопределённо структурированных данных, прежде всего, системами базами данных категории nosql, алгоритмами mapreduce и реализующими их программными каркасами и библиотеками проекта hadoop[7]. в дальнейшем к серии технологий больших данных стали относить разнообразные информационно-технологические решения, в той или иной степени обеспечивающие сходные по характеристикам возможности по обработке сверхбольших массивов данных.
объяснение:
это ответ на 1 вопрос
Ответить на вопрос
Поделитесь своими знаниями, ответьте на вопрос:
Покажите карту сайта, которую пользователи используют для поиска нужной информации на сайте
ответ:
ольши́е да́нные (. big data, [ˈbɪɡ ˈdeɪtə]) — обозначение структурированных и неструктурированных данных огромных объёмов и значительного многообразия, эффективно обрабатываемых горизонтально масштабируемыми программными инструментами, появившимися в конце 2000-х годов и альтернативных традиционным системам базами данных и решениям класса business intelligence[1][2][3].
в широком смысле о «больших данных» говорят как о социально- феномене, связанном с появлением технологических возможностей анализировать огромные массивы данных, в некоторых проблемных областях — весь мировой объём данных, и вытекающих из этого трансформационных последствий[4].
в качестве определяющих характеристик для больших данных традиционно выделяют «три v»: объём (. volume, в смысле величины объёма), скорость (velocity в смыслах как скорости прироста, так и необходимости высокоскоростной обработки и получения результатов), многообразие (variety, в смысле возможности одновременной обработки различных типов структурированных и полуструктурированных данных)[5][6]; в дальнейшем возникли различные вариации и интерпретации этого признака[⇨].
с точки зрения информационных технологий в совокупность подходов и инструментов изначально включались средства массово-параллельной обработки неопределённо структурированных данных, прежде всего, системами базами данных категории nosql, алгоритмами mapreduce и реализующими их программными каркасами и библиотеками проекта hadoop[7]. в дальнейшем к серии технологий больших данных стали относить разнообразные информационно-технологические решения, в той или иной степени обеспечивающие сходные по характеристикам возможности по обработке сверхбольших массивов данных.
объяснение:
это ответ на 1 вопрос