Виртуални големи данни

През 2010 г. IDC предрече, че до 2014 г. 70% от сървърите ще бъдат виртуални. Това до голяма степен се сбъдна. По данни на Gartner между 60 и 70 на сто от Windows машините са виртуализирани. При Linux сървърите този процент е по-нисък – между 35 и 45%. Освен това, имайки предвид спада в доставките на съвръри, вървящите проекти по консолидиране на старите системи и все по-широкото навлизане на модела “като услуга” за вътрешно ползване в компаниите, може да се заключи, че повечето нови предложения днес са виртуални.

Според ИТ мениджърите едно от основните предимства на виртуализацията във възможността чрез нея да се предоставя същото или по-добро бързодействие и качество на услугата с по-малко хардуер, като обикновено колкото по-големи са обединените масиви, толкова повече физически ресурси могат да бъдат спестени.

Ускоряващият се информационен ръст кара много специалисти да поглеждат към сторидж виртуализацията, предлагаща възможности за облекчаване на много от болките на днешните ИТ отдели. Става дума както за спестяване на средства, подобряване на контрола върху системите, увеличаване на тяхната гъвкавост и разбира, увеличаване на техния капацитет.

Все по-широкото използване на мобилни устройства по време на работа, както и BYOD (Bring your own device – “Донеси своето устройство“) тенденцията измества натоварването от крайните точки (настолни компютри и лаптопи) към сървърите. Това означава, че организациите трябва да отделят още повече ресурси за тях. Като пример в тази насока може да се даде лаптопът Chromebook. Въпреки че Google обявиха, че ще позволят на потребителите на устройството да правят повече неща с него в офлайн режим, този лаптоп по същество си остава един вид тънък клиент. Т.е. устройството служи не за обработка на информация, а за достъп, а изчисленията се поемат от сървъри.

Разходите винаги са били основен двигател за възприемането на виртуализационни технологии. Това важи дори с по-голяма сила през 2014 г., тъй като все повече малки и средни компании се обръщат към такива решения, за да разпределят по-ефективно харчовете за скъпия сървърен хардуер. По-големите организации пък продължават да инвестират в тази насока, с което целят да намалят текущите си разходи, сред които сметките за електрическа енергия, да оптимизират площта, заета от техника и използването на мрежовата инфраструктура.

 

Виртуализация на системите за съхранение на данни

Обикновено най-големият препъни-камък при виртуализацията се оказва съхранението на данни. Това от една страна се дължи на технологиите, на които са базирани съвременните устройства за съхранение на данни. Все още масово използваните решения са магнитни твърди дискове, които сякаш стоят встрани от стремителното развитие в останалата част хардуера – капацитетите на дисковете нарастват по-бавно от например производителността на процесорите.

Виртуализацията на системите за съхранение на данни позволява групиране на масивите за съхранение на данни от различни устройства и локации, така че те да бъдат използвани като един общ ресурс. Процесът включва отделяне на решенията за съхранение от приложенията и сървърите, така че те да бъдат управлявани отделно.

В днешни дни това често се оказва наложително, тъй като управлението на данните става все по-трудно и изисква все повече време. Благодарение на сторидж виртуализацията се улесняват и ускоряват дейностти като правенето на резервни копия, архивирането и възстановяването на информация. Същевременно този подход позволява “скриване” на реалната сложност на мрежите за съхранение на данни (Storage area network – SAN).

Сторидж виртуализацията се внедрява чрез използване на специализирани софтуерни продукти или хардуерни устройства. Основните причини за прибягването към тази технология са три:

Моделът на виртуализацията на системи за съхранение на данни може да се раздели на четири основни слоя:

  1. Storage devices
  2. Block aggregation layer
  3. File/record layer
  4. Application layer

Големите данни и виртуализацията

Справянето с големите обеми от данни традиционно включва управление на различни хранилища за информация, в контекста на използването й от разнообразни приложения. Виртуализацията предоставя ново ниво на ефективност, като на практика прави възможно създаването на платформи за големи данни, особено когато става дума за малки компании с по-огранчиени ресурси. Въпреки че тя технически не е необходима за анализиране на големи обеми от данни, софтуерните рамки са по-ефективни във виртуална среда.

Виртуализацията на големи данни е процес, който се фокусира върху създаването на виртуални структури за системи, обработващи големи масиви от информация. Предприятията могат да се възползват от виртуализация на големи данни, тъй като подходът им дава възможност да използват цялата информация, която събират, за да постигат различни цели и задачи. ИТ индустрията изпитва нужда от инструменти в тази насока, които да помогнат за анализирането на големи обеми от информация.

Виртуализацията предлага три основни характеристики, подкрепящи скалируемостта и оперативната ефективност, необходими за среди за големи данни:

Разделяне (Partitioning): При виртуализацията много приложения и операционни системи работят върху една физическа система чрез разделяне на наличните ресурси.

Изолация (Isolation): Всяка виртуална машина е изолирана от хардуера и останалите виртуални машини. Поради изолиране, ако някой от процесите блокира, останалите няма да бъдат засегнати. Също така данните не се споделят.

Капсулиране (Encapsulation): Една виртуална машина може да бъде представена като един файл и да бъде лесно идентифицирана на базата на услугите, които предоставя.

Един от начините да се обясни какво е виртуализацията на големи данни, е представянето й като интерфейс, създаден да направи техния анализ по-удобен за крайния потребител. Някои специалисти я описват като създаване на абстракционен слой между физическите системи за големи данни, т.е. където всеки бит се съхранява на компютри или сървъри, а виртуалната среда прави информацията по-лесна за разбиране и навигация. Целта на подхода е да обедини всички локации за съхранение в един общ лесен за употреба виртуален елемент.

За нуждите на бизнеса са разработени много инструменти за анализ на големи данни, но не всички от тях поддържат принципите на виртуализацията на големи данни. Според някои специалисти компаниите не бързат да възприемат подобни подходи, защото те се възприемат като досадни и трудни задачи. Това обаче може да се промени с навлизането на доставчици на услуги, стремящи се да предложат продукти и услуги, от които компаниите имат нужа. За ИТ специалистите пък тези предложения могат да са интересни в търсенето им на най-добрите начини за промени в посока най-удачно изграждане на системите от хардуерна гледна точка и тяхното използване на цялостната софтуерна архитектура.

Виртуализацията на данни може да се използва за създаване на платформи за динамично свързани информационни услуги. Това позволява лесно търсене и свързане на наличното съдържание през унифициран референтен източник. Целта е да бъде предложена абстрактна услуга, която да може да доставя информация в последователен вид, независимо каква е стоящата отдолу физическа система за бази данни. В допълнение виртуализацията на данни може да показва и кеширана информация за всички приложения за подобряване на производителността.

 

Източник: computerworld.bg