Microsoft: Suche in Outlook in non-persistent RDS Umgebungen

In einem neu erschienenen Artikel auf docs.microsoft.com namens „Dealing with Outlook search in non-persistent environments“ werden die Ergebnisse von einem Vergleich zwischen FSLogix Office 365 Container und herkömmlichen Microsoft User Profile Disks (UPD) dargestellt. Den Vergleich vollzog das Hersteller unabhängige Experten-Team namens RDS Gurus.

Das Problem mit der Suche in Outlook

Die Handhabung von Daten in Microsoft Outook in non-persistent bzw. pooled Remote Desktop Umgebungen gestaltet sich typischerweise schwierig. Wenn Outlook im sogenannten „Cached-Exchange-Mode“ betrieben werden soll, dann wird die OST-Datei, welche alle Emails in Outlook lokal zwischenspeichert, im Benutzerprofil abgelegt und muss mit dem Benutzer mit wandern, wenn er sich auf verschiedenen RDS Hosts anmeldet. Der Windows Suchdienst indexiert die OST-Datei und erstellt einen Indexkatalog, um die Suche in Outlook zu ermöglichen. In non-persistent RDS Umgebungen wandert der Indexkatalog nicht mit dem Benutzer mit, so dass er jedes Mal komplett neu erstellt werden muss, wenn sich der Benutzer auf einem neuen RDS Host anmeldet. So lange der Windows Suchdienst die Indexierung der OST-Datei nicht abgeschlossen hat erhält der Benutzer nur unvollständige Suchergebnisse.

Die Lösung für Suche in Outlook

Die RDS Gurus zeigen in ihrem Vergleich, dass der FSLogix Profile Container deutlich bessere Ergebnisse liefert als UPD. Im Fall von UPD werden keine oder nur unvollständige Ergebnisse bei der Suche in Outlook angezeigt, weil die OST Datei erst langwierig indexiert werden muss. FSLogix auf der anderen Seite lässt den Suchindexkatalog mit dem Benutzer mit wandern, so dass er sofort zur Verfügung steht. Damit bekommt der Benutzer von Anfang an exakte Suchergebnisse in Outlook angezeigt.

Diese Beobachtungen der RDS Gurus zeigen, dass FSLogix in non-persistent RDS Umgebungen mit Outlook die Akzeptanz und die User-Experience deutlich steigert.

Der komplette Artikel auf https://docs.microsoft.com/en-us/windows-server/remote/remote-desktop-services/rds-outlook-data-fslogix

FSLogix @ Prianto: http://www.prianto.com/hersteller-produkte/distribution/fslogix/

Cohesity SpanFS™ and SnapTree®

Die Mission von Cohesity ist es, den sekundären Speicher neu zu definieren. Herkömmliche Storage-Lösungen, wie zum Beispiel Dedupe-Appliances, Backup-Software und NAS-Geräte, können nicht mit den Bedürfnissen des modernen Unternehmens Schritt halten. Unternehmen müssen schnell steigende Datenmengen verwalten. Hochrechnungen von IDC geben 6 Zettabytes im Jahr 2016 an und prognostizieren 93 Zettabytes bis 2025. Der Trend in Unternehmen geht auch Richtung Multi-Cloud, somit müssen Daten in Cloud-Umgebungen für Recovery-, Test/Dev- und analytische Zwecke verfügbar gemacht werden.

Um diese unternehmerischen Herausforderungen zu lösen, hat Cohesity das Konzept des Hyperconverged Secondary Storage vorangetrieben, welches es Unternehmen ermöglicht:

  • Daten von verschiedenen sekundären Storage-Lösungen auf einer einzigen Web-Scale-Platform zu konsolidieren – einschließlich Backups, Dateien und Objekte
  • Unmittelbare Bereitstellung von Daten für die Wiederherstellung, Test/Dev und Analysezwecke
  • Verwalten von Daten in Multicloud-Umgebungen

Diese Vision von Hyperconverged Secondary Storage konnte Cohesity mit alten, herkömmlichen Dateisystemen nicht realisieren. Herkömmliche Dateisysteme wurden nur dahingehend optimiert, um z. B. Inline-Dedupe mit variabler Länge für Backup-Ziele zu ermöglichen.

Um Legacy-Storage-Silos auf zu brechen, musste Cohesity ein völlig neues Dateisystem entwickeln: SpanFS.
SpanFS wurde entwickelt, um alle sekundären Daten, einschließlich Backups, Dateien, Objekte, Test/Dev und Analysedaten, auf einer einzigen Web-Scale-Platform effektiv zu konsolidieren und zu verwalten.

SpanFS ist das einzige Dateisystem in der Branche, das gleichzeitig NFS-, SMB- und S3-Schnittstellen, globale Deduplizierung und unbegrenzte Snapshots und Clones bereitstellt. Und es bietet eine native Integration in Public Clouds, um eine Datenstruktur in Multi-Cloud-Umgebungen zu unterstützen, so dass Unternehmen Daten in die Cloud für die Archivierung oder für komplexere Anwendungsfälle, wie Disaster Recovery, Test/Dev und Analytics, senden können. All dies geschieht auf der grenzenlos skalierbaren Architektur von Cohesity, um die ständig wachsenden Datenmengen effektiv zu verwalten.

Werfen wir einen genaueren Blick auf die Architektur von SpanFS und wie es sich grundlegend von Legacy-Dateisystemen unterscheidet. Auf der obersten Ebene stellt SpanFS standardisierte, global verteilte NFS-, SMB- und S3-Schnittstellen bereit. Unterhalb den Zugriffsprotokollen verwaltet die IO Engine für alle Daten, die in das System geschrieben oder gelesen werden, die IO- Operationen. Es erkennt automatisch zufällige und sequentielle IO-Profile, teilt die Daten in Chunks auf, führt die Deduplizierung durch und leitet die Daten basierend auf dem IO-Profil auf die am besten geeignete Speicherschicht (SSD, HDD, Cloud Storage) . Um nach zu vollziehen auf welchen Cluster-Knoten die Daten liegen, musste Cohesity auch einen völlig neuen Metadatenspeicher aufbauen. Der Metadatenspeicher besteht aus einem konsistenten, verteilten NoSQL-Store. Er sorgt für schnelle IO-Operationen im verteilten System. Die SnapTree-Technologie bietet eine verteilte Metadatenstruktur auf Basis von B+ Tree-Konzepten. SnapTree ist einzigartig in seiner Fähigkeit, unbegrenzte und häufige Snapshots ohne Leistungseinbußen zu unterstützen. SpanFS hat QoS-Controls in allen Ebenen eingebaut, so dass QoS abhängig vom Workload oder abhängig vom Mandant gesteuert werden kann. SpanFS kann auch replizieren, archivieren und Daten zu einem anderen Cohesity-Cluster oder in die Cloud auslagern.

SnapTree stellt einen völlig neuen Ansatz für die Verwaltung von Metadaten in verteilten Systemen dar. Im herkömmlichen Storage-Systemen bilden Snapshots die Glieder einer Kette, wobei jedes Glied die Änderungen aus dem vorherigen Snapshot enthält. Jedes Mal, wenn ein neuer Snapshot durchgeführt wird, wird ein zusätzliches Glied zur Kette hinzugefügt. Und genau das sorgt für enormen Leistungsverlust.

Um unbegrenzte Snapshots und Clones in verteilten Systemen zu gewährleisten, verwaltet SnapTree die Metadaten mit einer B+ Tree-Metadatenstruktur, fügt jedoch mehrere Neuerungen hinzu:

  • Verteilt die B+ Baumstruktur über Cluster-Knoten
  • Bietet gleichzeitigen Zugriff von mehreren Cluster-Knoten
  • Unterstützt die Erstellung von Instant-Clones und Snaps

Innerhalb SnapTree werden Views (Volumes) und Dateien anhand einen Baumstruktur von Zeigern (Pointers) dargestellt, die auf die zugrunde liegenden Daten zeigen. Der Wurzelknoten verweist auf einige Zwischenknoten, die wiederum auf die Blattknoten zeigen, die den Ort der Datenblöcke enthalten. Man kann Snapshots von kompletten Views (Volumes) machen oder auch nur von einzelne Dateien innerhalb der Views. Wenn Snapshots gemacht werden, erhöht sich nicht die Anzahl der Hops von der Wurzel bis zu den Blättern. Man kann Snapshots so oft machen wie man will – ohne jeglichen Leistungsverlust.

SpanFS und SnapTree in Kombination bieten ein einzigartiges Dateisystem, das speziell für die Konsolidierung von Sekundärspeicher entwickelt wurde. Dies ist die technische Grundlage, die Hyperconverged Secondary Storage ermöglicht. Damit gewinnt man die Kontrolle über seine Daten zurück.

Weitere Infos zu SpanFS und SnapTree:
Download White Paper
Light Board Video anschauen
Cohesity Website

Die IT-Asset-Optimierung harmonisiert – Anwender und IT-Abteilung im Einklang

Innerhalb vieler PCs im Unternehmen existiert ungenutztes Potenzial für Einsparungen und bessere Systemleistung.

Die letzten 10 Jahre in großen Desktop-Transformationsprojekten wurde das Bereitstellen von Managed-Desktops immer günstiger. Gleichzeitig hat sich die Komplexität jedoch dramatisch erhöht, wobei neue Technologien und Delivery Platforms ständig weiterentwickelt und eingeführt wurden und somit eigentlich große Chancen zur weiteren Senkung der Kosten für die Bereitstellung oder die Verwaltung vorhanden waren.

Dennoch haben viele Organisationen die Kosteneinsparungen, die aus der so genannte Consumerization of IT resultierten, nicht erkannt. Vielmehr haben IT-Verwaltung und Nutzer gegeneinander gearbeitet und unterschiedliche Ziele verfolgt. Diese Kluft ist gewachsen, da sich Benutzer an „unbegrenzte Apps“ auf persönlichen Geräte gewöhnt haben und erwarten, dass ihre Arbeitsgeräte gleiche Leistung, Benutzerfreundlichkeit und App-Verfügbarkeit mitbringen. Auf dem privaten Handy hat man unzählige „persönliche Anwendungen“, im Gegensatz zu den vielleicht Dutzenden Anwendungen auf einem Arbeits-Laptop, die man benötigen, um Arbeitsaufgaben abzuschließen. Eines ist sicher – wir sind in einem „Application Overload“.

IT-Asset-Optimierung ist die Antwort auf den schwindelerregenden Zustrom neuer Technologien am Arbeitsplatz. Durch die Reduktion von Hardware und Anwendungen auf genau die Bedürfnisse, die die Nutzer brauchen, können Unternehmen die Betriebskosten rationalisieren und die IT-Anstrengungen auf die Verbesserung der „End-User-Experience“ konzentrieren.

Wie in jeder Optimierungsdiskussion kommt hier das Motto „weniger ist mehr“ zum Tragen. Das Problem ist, die meisten Organisationen wissen einfach nicht, was sie derzeit haben (und wie es verwendet wird), so dass sie nicht in der Lage sind, zu beurteilen, was wirklich gebraucht wird.

Man beginnt mit dem „was man hat“ (oder denkt, was man hat)

Man startet einfach damit, dass klar ist, dass Inventurlisten in Excel einfach nicht funktionieren! Wenn das Einkaufsteam solche Listen verwaltet, dann ist dort gelistet, was gekauft wurde. Wie oft werden solche Listen tatsächlich von anderen Teams in der Organisation aktualisiert?

Zum Beispiel könnte ein Service Desk-Team mehr Speicher für eine Maschine hinzufügt habe, um ein akkutes Problem zu beheben. Die Inventurliste wurde jedoch niemals aktualisiert, so dass die Hardwareänderung nicht berücksichtigt ist. Oder, Geräte wechseln den Besitzer, weil jemand das Unternehmen verlassen hat und ein andere eingestellt wurde. Allerdings wurde der Einkauf darüber nicht informiert. Es ist klar, Excel-Listen sind nur vage Informationen und zum Zeitpunkt eines Audits helfen sie einem nicht aus der Patsche. Man muss genau festhalten, was eingesetzt und genutzt wird.

Erkennen und entscheiden, was ausgemistet wird

Sicher zu stellen, dass der Softwaregebrauch niedriger ist als die beschafften Lizenzen, hilft offensichtlich bei empfindlichen Geldstrafen nach einem Software-Audit (was wir in der Presse häufiger lesen). Andererseits ist die Überlizenzierung für Software eine große Chance, IT-Ausgaben zu reduzieren. Mit Software, die ca. 30% der Desktop-Ausgaben aus macht, und laufende Software-Wartungsverträge im Durchschnitt 20%, ist es wichtig, sicherzustellen, dass man als Unternehmen nur das bezahlt, was auch genutzt wird.

In den Griff bekommt man das, wenn man die Daten aus dem sogenannten Workplace Analytics nutzt. Dabei wird eine umfangreichen Anzahl von Informationen von Benutzern und dem Gerät automatisch erfasst. Die Analyse der Arbeitsumgebung liefert ein komplettes Bild vom dem, was auf einem Gerät installiert ist, und auch, wie und wann Anwendungen verwendet werden. Dies gibt der IT-Abteilung ein Verständnis dafür, wie häufig die Applikationen genutzt werden (wenn überhaupt), so dass eine Vielzahl von Entscheidungen über die IT-Asset-Optimierung getroffen werden können, einschließlich Provisioning, Lizenzoptimierung und wie zuverlässig Softwarepakete bereitgestellt werden können. Letztendlich kann dies dazu führen, dass die Lizenzkosten gesenkt werden, indem Anwendungen entfernt und Lizenzen einspart werden, die selten genutzt werden.

Die Lizenzierung kann auch gestrafft werden, wenn Administratoren bemerken, dass alle Anwender ein ähnliches Softwareportfolio benötigen, das durch eine andere Lizenz und somit potenziell viel kostengünstiger und effektiver abgedeckt werden kann.

Sobald sich die Verantwortung für die Software-Bereitstellung von der IT-Abteilung zu einem Dienstleister verschiebt, ist es ebenso wichtig für die IT, nach zu verfolgen, ob der Anbieter seine SLAs einhält, um bei Dienstunterbrechung effektiv auch weniger zu bezahlen.

Erkennen von ungenutzten Systemen und intelligente Beschaffung

In ähnlicher Weise wie die Analyse der Anwendungsnutzung, um festzustellen, wo Lizenzen eingespart werden können, bietet das Workplace Analytics einen klaren Einblick, wie die Leistung von PCs und Systemen tatsächlich ausgenutzt wird. Das Verständnis der Performance-Metriken auf jedem Gerät ermöglicht eine präzise Entscheidungen nicht nur, ob neue Hardware erforderlich ist, sondern auch, ob das Arbeitsverhalten ein geeigneter Kandidat für die Desktop-Virtualisierung ist. Möglicherweise reicht auch ein deutlich günstigeres Gerät aus.

Mit dem zunehmenden Hype zur Cloud-basierten Bereitstellung von Desktop- und echten DaaS-Modellen ist es von großem Vorteil, detailliert die Anforderung an Leistungsdaten (CPU, RAM, IO, Netzwerk, GPU) für die verschiedenen Anwendungen zu verstehen. Genau dann kann an Hand von Messwerten beurteilt werden, ob eine Desktop-Bereitstellung in solchen Umgebungen sinnvoll ist oder nicht. Nur dann ist auch sichergestellt, dass die Kosten für die Migration in Cloud-basierten Bereitstellungen von Desktop- und echten DaaS-Modellen im Vorfeld bekannt sind.

Bekanntlich muss zur Risikominimierung der Bedarf genau taxiert werden und das Inventar entsprechend verwaltet. Allerdings kann man durch eine IT-Asset-Optimierung noch viel mehr gewinnen als nur Einsparungen aus Software-Lizenzen. Mit Hilfe von Workplace Analytics, mit der permantent akkurate Nutzungsdaten gesammelt werden, kann die Beschaffung absolut bedarfsgerecht erfolgen und anhand der Leistungsdaten genau überwacht werden, ob SLAs bei Cloud-Diensten eingehalten werden, und die nötige „End-User-Experience“ gewährleistet ist. Mit diesem Benutzer-zentrierten Ansatz sind IT und Anwender auf der gleichen Seite. Die IT-Abteilung versteht deutlich besser, was die Anwender tatsächlich benötigen, um produktiv zu sein.

Wie wir bereits bemerkt haben, „Anwender sind auch Menschen“. Workplace Analytics liefert den Administratoren die Fertigkeiten, um IT-Assets zu optimieren. Die Beschaffung wird bedarfsgerecht und die End-User-Experience steigt.

Lakeside Software – Systrack – Workplace Analytics

Kostenlose Tools für das Planen von Backups

Viele von uns verwenden für die Verwaltung und das Planen einer Wiederherstellung eventuell ein Monitoring-Tool oder Sammlungen von Tools. Allerdings haben wir oft lückenhafte Informationen über die Zuteilung der Menge an Storage innerhalb der Infrastruktur. Diese Lücken kommen meist dann ans Tageslicht, wenn man versucht, die Menge der Daten zu schätzen oder zu verstehen versucht, wie der Storage verwendet wird. Die Herausforderung ist dann besonders groß, wenn man unglücklicherweise an die Grenzen des Backup-Storage stößt. In dieser Situation wäre es ziemlich hilfreich, genau zu verstehen, was überhaupt alles gesichert werden muss, bevor man das gute Geld für zusätzlichen Storage investiert. Tatsächlich hat man möglicherweise Daten, die man garnicht sichern braucht oder sie sind sogar doppelt vorhanden. Fakt ist, dass die meisten von uns nicht die passenden Tools haben, um akkurat das „Was“ und „Wo“ der Daten fest zu stellen.

Unitrends bietet 3 kostenlose Tools, mit denen man das Planen von Backup und Wiederherstellung beginnen kann.

BC/DR Link – ist ein Online Service Tool, mit dem man einen DR Plan erstellen und anpassen kann, um eine zuverlässige Aussage über Ausfallszenarien und die schnelle Wiederherstellung machen kann.

Recovery Time Actual Calculator – berechnet die Zeit wie lange das Wiederherstellen von kritischen VMs dauert.

Unitrends Free – ist eine kostenlose Backup Software, die auf einfache Weise als virtuelle Appliance auf VMware vSphere oder Microsoft Hyper-V bereitgestellt wird. Man kann bis zu 1TB an Daten sichern. Es gibt keine Beschränkung bezüglich der Anzahl der VMs oder der CPU-Sockets.

Für denjenigen, der seine VMs in die Cloud verschieben möchte, bietet Unitrends ein kostenloses Migrations-Tool.

Free VMware Migration to AWS or Azure – konvertiert die VMs, so dass sie in AWS oder Azure laufen und kopiert sie auf günstigen AWS S3 oder Azure Blob Storage. Das kostenlose Tool sorgt sogar für die richtige Transformation der Netzwerkverbindungen zwischen VMware und AWS. Das Migrieren von VMs in die Cloud geht damit sehr einfach.

Autotask & Webroot – RMM verbessern, Endpoint Security erhöhen und Kosten sparen

In diesem Webcast wird die brilliante Kombination aus Autotask und Webroot gezeigt.
Neben der Vorstellung und der Integration der beiden Lösungen berichtet der CEO von PC Spezialist., Lars Larscheid, über seine praktitschen Erfahrungen mit dieser Kombination als Managed Service Provider.

Upgrade to VMware vCenter 6.5U1 failed – Error code 3010

Today we tried to upgrade to the new VMware vCenter 6.5U1. Unfortunately the installer failed with error code 3010.

It turns out that vmware-jre.msi, which is part of the vCenter upgrade installation has failed, because there are some locked files which can not be replaced.

VMware vCenter is running on Windows Server 2012 R2.
This vCenter instance also host a vSphere Plugin for Stormagic SvSAN.

StorMagic SvSAN is a very nice and easy to use software-defined storage solution, which provides a virtual SAN to the VMware vSphere environment using local disks of the ESXi hosts.

StorMagic SvSAN uses an Apache Tomcat Server to present the plugin’s information inside vSphere Webclient. The Tomcat Server Service is the one who holds a lock on the files which vmware-jre.msi tries to replace.

Solution:

The simple solution is to stop the „StorMagic Apache Tomcat Service“ before running the upgrade of VMware vCenter 6.5U1 and start it after the installation has finished.

 

Webroot Partner Zertifizierung

Webroot, der Marktführer in  Sachen Endpoint- und Network Security, und Threat Intelligence, startet das Webroot Zeritifizierungsprogramm. Inhalte, wie Unterscheidungsmerkmale, Deployment Best Practices, Cybersecurity Management und Basic Troubleshooting für SecureAnywhere Business Endpoint Protection, werden abdeckt. Das Zertifizierungsprogramm ist für Vertriebs- und Technikteams bei Managed Service Providern (MSP) und bei Value-Added Resellern geeignet, um die Lösung besser zu positionieren, den entsprechenden Support dafür zu liefern und das IT Service-Geschäft zu optimieren.

Fakten:

  • Im Online-Zertifierungsprogramm gibt es 2 kostenlose Kurse – einer für Vertriebsprofis und einer für Techniker. Beide erweitern das Wissen über Webroot’s Endpoint Protection Security Lösung und behinhalten wichtige Trends im Security-Markt.
  • Mit einer Länge von unter 1 Stunde bietet der Sales-Track einen Ãœberblick über die wichtigsten Produkt-Features und Unterscheidungsmerkmale von SecureAnywhere Business Endpoint Protection. Dem Partner hilft das, die Feinheiten und die Unterscheidungskriterien am Markt besser zu meistern.
  • Mit einer Länge von unter 2 Stunden bietet der Technical-Track die Best Practices für das Ausrollen  und den Support von Secure Anywhere Business Endpoint Protection. Den technischen Teams bei Partner hilft das, das Deployment, die Verwaltung und das Troubleshooting auf Kundenseite effizienter zu gestalten.
  • Die Partner erhalten Zugriff auf zusätzliche Tools, wie zum Beispiel das Webroot IP Test Tool, um noch schneller beim Support zu sein.
  • Wenn mindestens ein Angestellter die Sales-Zertifizierung und ein Angestellter die technische Zertifizierung durchzieht, dann erhält der Partner die Auszeichnung „Webroot Certified Partner„.

Weitere Infos zur Webroot Partner Zertifizierung

Wenn Interesse besteht, dann kontaktieren Sie uns einfach oder melden sich gleich online an.

Warum sollte ich mich zertifizieren?

Als Webroot Certified Partner für Webroot Secure Anywhere Business Endpoint Protection sind die Vertriebsmannschaft und das Technikteam besser in der Lage, die Lösung zu positionieren, verkaufen und zu supporten. Das erhöht den Umsatz. Die Techniker können die Installation und die Verwaltung auf Kundenseite deutlich effizienter gestalten und bekommen Einblick in wichtige Troubleshooting-Techniken.

Nachdem man die WSAB Endpoint Protection Zertifizierung durchgeführt hat, bekommt man eine Webroot Certified Partner Auszeichnung, mit der man seine Expertise auf der eignen Website oder anderen Marketingkanälen vermarkten kann. Man hebt sich als Webroot Certified Partner von der Masse ab und die Kunden wissen, dass man Experte auf diesem Gebiet ist.

Hier ist eine Beispiel des Webroot Certified Partner Logos:

 Prianto’s Webroot Twitter List

GDPR Compliance mit Cohesity

GDPR und Datenspeicherung

Die EU General Data Protection Regulation (GDPR) ist die Regelung, um den Datenschutz für Bürger in der EU zu verstärken. Hierzulande ist sie besser bekannt als Datenschutz-Grundverordnung, kurz DSGVO.

Die GDPR erfordert eine breite Palette an rechtlichen und technischen Anforderungen, die beim Verarbeiten von personenbezogenen Daten erfüllt werden müssen.  Ein Teil dieser Anforderungen, nämlich jene, die den Datenschutz und die Datenverwaltung betreffen, sind für den Datenspeicher besonders relevant, denn dort werden personenbezogene Daten gespeichert.

Die Anforderungen dort sind:

Datenschutz by Design: Personenbezogene Daten müssen vor nicht autorisiertem und unrechtmäßigem Zugriff geschützt werden. Unternehmen sollten die Daten verschlüsseln und den Zugriff auf diejenige einschränken, die die Daten verarbeiten.

Datenintegrität: Personenbezogene Daten müssen vor Verlust, Zerstörung, Beschädigung, inklusive Ransomware geschützt werden.

Datenminimierung: Unternehmen sollen die personenbezogenen Daten, die sie speichern, minimieren und tatsächlich nur so viele Daten speichern, die für den Zweck nötig sind. Daten sollten gelöscht werden, sobald die Verarbeitung und der Zweck abgeschlossen ist.

Recht zum Löschen / Recht zum Vergessen werden: Personen haben das Recht auf Löschung ihrer personenbezogenen Daten.

Eingeschränkte Datenübertragung: Die Ãœbertragung von personenbezogenen Daten zu Dritten muss auf diejenigen Länder und Organisationen eingeschränkt werden, die ein adequates Niveau an Datenschutz liefern. Werden Daten in andere Länder oder Orte, wie beispielsweise die Public Cloud, übertragen, so müssen jene ebenfalls die Anforderungen der GDPR bezüglich Datenschutz einhalten.

Cohesity vereinfacht die Handhabung der GDPR Compliance

Herkömmliche Storage-Architekturen, die meist aus einem Patchwork von verschiedenen, spezifischen Geräten bestehen, erschweren die Einhaltung der GDPR Richtlinien. Daten werden zwischen verschiedenen Silos (für Backup, Archiv, Test/Dev, Analyse) kopiert. Dabei müssen die Daten in jedem einzelnen Silo somit mehrfach geschützt und verwaltet werden. Wenn irgendeines dieser Silos den Anforderungen der GDPR nicht entspricht, dann kann die gesamte Organisation dafür haftbar gemacht werden, was empfindliche Strafen nach sich zieht.

Cohesity bietet eine besser Storage-Platform, um die GDPR Richtlinien einzuhalten. Cohesity konsolidiert den sog. „Secondary Storage“. Das heißt, alle Daten aus Backup, Archiv, Test/Dev und Analyse befinden sich in einer „Web-scale“ Platform. Es handelt sich somit um eine Gesamtlösung. Cohesity bietet Datenschutz, Verschlüsselung, Verwaltung der Aufbewahrungszeit, Suchfunktionalität, Analyse und viele weitere Möglichkeiten, um die Einhaltung der GDPR Richtlinien zu erleichtern.

Cohesity erleichtert die Einhaltung der GDPR Richtlinien mit folgenden Möglichkeiten:

Konsolidierung des Secondary Storage: Cohesity konsolidiert den Speicher für Backups, Dateifreigaben, objektbasierten Speicher, Test/Dev-Kopien und analytischen Daten. Dabei müssen Daten nicht mehr mehrfach zwischen verschiedenartigen Storage-Appliances kopiert werden. Cohesity minimiert somit die Anzahl der Datenkopien und reduziert die Angriffsfläche. Die gesamte Datenverwaltung wird auf eine Web-scale Platform zentralisiert und somit die Einhaltung der GDPR Richtlinien deutlich vereinfacht. Die Steuerung des Datenschutzes, der Datensicherheit, der Suche und der Analyse ist viel einfacher, wenn man sich nur um eine einzige Platform kümmern muss.

Daten vor nicht autorisiertem Zugriff schützen: Cohesity bietet eine software-basierte Verschlüsselung für die Ãœbertragung von Daten und für gespeicherte Daten. Gemäß der Regel des GDPR ist das Verschlüsseln von Daten und das Ablegen der Keys an einer anderen Stelle äquivalent zur Pseudonymisierung von personenbezogenen Daten. Cohesity unterstützt das Pseudonymisierungsverfahren mit Verschlüsselungs-Keys ganzheitlich. Zusätzlich gibt es auch noch eine granulare, rollenbasierte Zugriffssteuerung (RBAC), die sicherstellt, dass nur autorisierte Personen Zugriff auf die Daten haben.

Schutz gegen Datenverlust und Ransomware: Cohesity bietet das Erasure Coding Verfahren (EC) und die Replikation, um die nötige Datenelastizität innerhalb des Clusters sicher zu stellen. Mit Hilfe von unveränderlichen und automatisierten Snapshots werden die Daten vor Verlust und Ramsomware geschützt. Daten können natürlich auch repliziert und auf Tape oder in die Cloud archiviert werden, um Standort übergreifenden Datensicherheit zu gewährleisten.

Automatische Aufbewahrungszeiten: Um die Regeln der Datenminimierung einzuhalten, biete Cohesity den Backup-Administratoren entsprechende Aufbewahrungszeiten mit vollautomatischen Richtlinien. Daten werden automatisch aufbewahrt oder gelöscht basierend auf den Einstellungen.

Erkennen von personenbezogene Daten mit Such- und Analysefunktion: Gemäß der GDPR haben Personen das Recht auf Lösung ihrer personenbezogenen Daten. In dieser Situation muss das Unternehmen erst einmal identifizieren, wo überall diese Daten abgelegt sind. Cohesity indexiert alle Dateien und Metadaten von virtuellen Maschinen, sobald sie am System ankommen. Das ermöglicht ein globales, Google-ähnliches Suchen, um schnell einzelne Dateien zu identifizieren. Cohesity bietet zusätzlich anpassbare Analysefunktionen, um sensible und personenbezogene Daten im gesamten Cluster zu erkennen. Cohesity ermöglicht auch die Integration von Analyse-, Compliance- und eDiscovery-Produkten  von Fremdanbietern. Schlußendlich kann man mit Cohesity Tapes mit der Public Cloud oder jeglichen NFS- oder S3-kompatiblen Storage ersetzen. Archive werden damit besser durchsuchbar und verwaltbar.

Daten über Multi-Cloud Umgebungen hinweg sichern und verwalten: Viele Kunden verwenden oder planen, die Public Cloud als Datenspeicher zu nutzen. Bisher beschränkt die GDPR die Liste an Orten und Providern, wo personenbezogene Daten gespeichert werden dürfen. Mit Cohesity ist es möglich die Daten über mehrere Cluster und in die Cloud hinweg zu replizieren und auf jeglichem NFS- oder S3-kompatiblen Speicher zu archivieren. Mit Cohesity lassen sich die Speicherorte über mehrere Cloud-Umgebungen hinweg leicht steuern. Die Daten in der Cloud können verschlüsselt, indexiert und analysiert werden, um die GDPR Compliance unabhängig vom Speicherort sicher zu stellen.

Cohesity’s technische Funktionen für die GDPR

Wie Cohesity die Einhaltung der GDPR Richtlinien vereinfach Cohesity’s technische Funktionen und Möglichkeiten
Secondary Storage konsolidieren
  • Web-scale Platform mit unlimierter Skalierbarkeit
    • Secondary Storage wir auf eine einzige Platform konsolidiert
    • Datensicherung für virtuelle Maschinen, physische Server, Microsoft SQL Server, Oracle Datenbanken, NAS Geräte und Pure Storage
    • Speicherplatz für Datenbank-Dumps und -Kopien
    • Speicherplatz für Backup-Produkte von Fremdherstellern
    • Speicherplatz für Dateifreigaben (NFS und SMB)
    • Speicherplatz für objektbasierten Speicher (S3)
    • Speicherplatz für Test/Dev Kopien
  • Tape wird mit Cloud oder jeglichem NFS/S3-kompatiblen Speicher ersetzt, um die Verwaltbarkeit zu erleichtern
    • Indexieren und suchen in Archivdaten
    • Wiederherstellen einzelner Dateien aus dem Archiv
    • Selektives Löschen in Archiven
Daten vor nicht autorisiertem Zugriff schützen
  • Verschlüsselung
    • für gespeicherte Daten und die Datenübertragung (Cloud, Replikation)
    • Software-basiert, AES 256
    • FIPS-compliant
    • Verschlüsselungs-Keys werden vom Cohesity-Cluster oder einem externen KMS verwaltet
  • Rollenbasierte Zugriffssteuerung (RBAC)
    • Erlaubnis nach Art des Benutzers
    • Erlaubnis nach Art der Datenquelle
    • AD Integration
  • Datenisolierung
    • Physische Isolation zwischen Partitionen
    • Logische Isolation zwischen View Boxes
Schutz gegen Datenverlust und Ransomware
  • Datenelastizität im Cluster
    • Erasure Coding
    • Replikation
  • Datensicherung im Cluster
    • Automatische, unveränderliche Snapshots von Backup-Jobs und Cohesity Volumes
    • Instant Restore für jeglichen Snapshot
  • Standortübergreifende Datensicherung
    • Replikation und Archivierung in die Cloud
    • Cross-cluster Replikation
  • Write-Once Read-Many (WORM) Volumes für sensible Daten
Aufbewahrungszeiten automatisieren
  • Richtlinien zur Datenaufbewahrung, um personenbezogene Daten zu minimieren
    • Richtlinien zur Aufbewahrungszeit und zum Löschzeitpunkt werden definiert
    • Zuweisen der Richtlinie an bestimmte Arten von Daten
    • Das Löschen von Daten basierend auf der Richtlinie wird automatisiert
Personenbezogene Daten mit Such- und Analysefunktion identifizieren
  • Globale Suche
    • Indexieren aller VMs und Dateien auf dem System
    • Globale, Google-ähnliche Suche über den gesamten Cluster hinweg
  • Anpassbare Analysefunktionen um personenbezogene Daten zu identifizieren
    • Anpassbare Analytics-Jobs mit Hilfe des Analytics-WorkBench (AWB)
    • Eigener Code oder vorgefertigte Analytics-Jobs
    • personenbezogene Daten schnell lokalisieren
  • Integration für Analyse-, Compliance- und eDiscovery-Produkte von Fremdherstellern
    • Zugriff auf Cohesity Volumes und Buckets
    • In-place Analytics via WorkBench
Daten über Multi-Cloud Umgebungen hinweg verwalten und sichern
  • Daten an jeden Ort senden
    • Replikation in die Cloud oder zu einem anderen Cohesity Cluster
    • Archivieren in die Cloud oder auf jeglichen NFS/S3-kompatiblen Speicher
    • Steuerung des Speicherorts für jeglichen Backup-Job oder Volume
  • Daten über Speicherorte hinweg schützen
    • Datenverschlüsselung bei der Ãœbertragung für die Replikation und Archivierung (in-flight)
    • Datenverschlüsselung bei der Replikation und Archivierung auf dem Zielspeicherort (at-rest)
  • Verwaltung der Daten über die Speicherote hinweg
    • Indexierung, Suche und Analyse der Daten unabhängig vom Speicherort
    • Einfacher Zugriff, Löschen und Ãœbertragung von personenbezogenen Daten über Speicherorte hinweg

  Prianto’s Cohesity Twitter List

Cohesity S3

Exponentielles Datenwachstum und und ein ansteigender Bedarf an Private- und Hybrid-Cloud Storage bringen die objektbasierte Storage-Technologie in Richtung Mainstream. Anwendungen im Enterprisebereich nutzen objektbasierten Storage wegen der Skalierbarkeit, Kosteneffizienz als On-premise Cloud Storage Lösung. Cohesity DataPlatform 4.0 liefert eine S3-kompatible Storage Platform (neben NFS und SMB)

Cohesity S3 baut auf die CohesityFS Technology auf. Somit ist das nur ein weiteres Protokoll, über das Anwendung das Cohesity Scale-out Filesystem nutzen können.

Cohesity S3 unterstützt:

  • Objektversionierung
  • Bucket und Object level ACLs
  • Multipart Uploads
  • Kopieren von Objekten von einem Bucket zum anderen

Vorteile von Cohesity S3

Globale Deduplizierung: Dedupliziert wird bei allen Zugriffsprotokollen – NFS/SMB/S3. Sobald die Daten beim CohesityFS ankommen werden sie gegen alle Datastores im Cluster dedupliziert.

Erase Encoding (EC): Die Unterstützung für EC gibt es seit Version 4.0. Und kann für Object Stores verwendet werden.

Multi-protocol access: Daten können über das eine Protokoll geschrieben werden und gleichzeitig über ein anderes Protokoll gelesen werden. Damit können Daten, die von alten Anwendungen per NFS/SMB geschrieben werden, gleichzeitig von neuen, Cloud-basierten Anwendungen per S3 verwendet werden. Noch besser, man kann ein NFS/SMB read-write View in eine S3 read-write View klonen und vice-versa.

Policy-based backup protection: Die integrierte Data Protection Software und die SnapTree Technologie sorgen für Datenschutz und fully-hydrated Snapshots.

Write Once Read Many (WORM): Lanzeitaufbewahrung von Daten mit Compliance-Anforderungen.

  Prianto’s Cohesity Twitter List

Webroot Product Update

Webroot SecureAnywhere Business Endpoint Protection

Overview

The Global Site Manager console is designed to make managing multiple sites easier. At the end of July, we’ll be adding even more functionality for that purpose, including:
» Personalizing block pages for the Web Threat Shield
» Enhanced device management details
» Mac ® policy management

What to Expect

Console updates will happen globally. No action is required on your part, and we do not anticipate any end user impact.

Based on customer feedback, we will be enabling policy management for Mac endpoints in two stages. The first step will enable configuration changes in the GSM console, while the second step will update endpoints to respond to the new policies. This approach will allow administrators to make policy decisions based on available options and communicate policy updates to their customers in advance of the changes. The timing of this second step will be based on customer feedback, and we will notify you a week prior to the update.

Custom Block Pages

When a user navigates to a page that has been identified by Web Threat Shield as malicious, the browser blocks the page and displays a “block page” explaining
why. This release will allow admins to personalize this block page with their
logo and contact information via the GSM console. The figure to the right shows the difference between a standard block page, and a personalized one.

To personalize the block page, navigate to Global Settings > Web Overrides > Block Page Settings

On the resulting page, you can upload a new logo and edit the contact information below the block message. The content editor will allow basic formatting.

Device Management

The new Device Management functionality gives admins an overview
of all devices across all sites, and can be easily filtered by Site or Status.You
can now send a clean up command to each device, restore infected files
from the quarantine and whitelist files from the GSM console. To access this
new functionality, simply go to the new Devices tab in the GSM.

Based on customer feedback, we have added a table which provides a quick
overview of device status, making it easy to see which devices have not
reported in within the last 7 days. Additionally, admins can use wild
card searches to find specific device hostnames.

By clicking an individual device, admins can view additional device-specific
details, such as summary information, infections encountered, and URLs that
have been blocked by Web Threat Shield and DNS Protection, if enabled.

The Infections Encountered tab provides high-level information, including file
name, path information, the malware family to which the infection belongs,
and the date and time it was last active on the device.

You can see additional information about an infection, such as dwell time, by
clicking its name.

Managing Mac Policy

Admins will notice changes in two key areas:

  1. Policies
  2. Group Management

In the Policies section, new icons will indicate which operating systems
support a given policy.

Once you have configured Mac policies, you must assign Mac endpoints to the
new policy via the Group Management tab. By default, Macs will be assigned
to an “Unmanaged” policy. For more specific directions on configuring Policies, please see our Help article on the topic.