Cohesity – Redefining Secondary Storage

Cohesity bietet die erste Storage-Plattform, die Datensicherung und Big-Data-Silos in einer grenzenlos skalierbaren Infrastruktur vereint

Statt einer komplizierten, kostspieligen und ineffizienten Sammlung von Punkt-Lösungen beendet Cohesity die Auswüchse beim Storage bezüglich Backup, Archive, Cloud, Test/Dev, File Shares und Analytics.

Im Video lernen Sie, wie Cohesitys Hyperconverged Secondary Storage-Ansatz dabei hilft, die folgenden Dinge zu tun:

• Konsolidierung von Secondary Storage-Silos in einer Web-Scale-Plattform

• Direkte Bereitstellung von Daten für Recovery, Test/Dev und Analytics

• Einrichtung einer Multi-Cloud-Datenstruktur

• Vereinfachung der Handhabung der Datenschutz-Grundverordnung-Compliance (DSGVO/GDPR)

• Bereitstellung von NFS, SMB und S3-Interfaces

• Unlimitierte Anzahl an VM-Snapshots ohne Performanceverlust

• uvm.

 

Microsoft: Suche in Outlook in non-persistent RDS Umgebungen

In einem neu erschienenen Artikel auf docs.microsoft.com namens „Dealing with Outlook search in non-persistent environments“ werden die Ergebnisse von einem Vergleich zwischen FSLogix Office 365 Container und herkömmlichen Microsoft User Profile Disks (UPD) dargestellt. Den Vergleich vollzog das Hersteller unabhängige Experten-Team namens RDS Gurus.

Das Problem mit der Suche in Outlook

Die Handhabung von Daten in Microsoft Outook in non-persistent bzw. pooled Remote Desktop Umgebungen gestaltet sich typischerweise schwierig. Wenn Outlook im sogenannten „Cached-Exchange-Mode“ betrieben werden soll, dann wird die OST-Datei, welche alle Emails in Outlook lokal zwischenspeichert, im Benutzerprofil abgelegt und muss mit dem Benutzer mit wandern, wenn er sich auf verschiedenen RDS Hosts anmeldet. Der Windows Suchdienst indexiert die OST-Datei und erstellt einen Indexkatalog, um die Suche in Outlook zu ermöglichen. In non-persistent RDS Umgebungen wandert der Indexkatalog nicht mit dem Benutzer mit, so dass er jedes Mal komplett neu erstellt werden muss, wenn sich der Benutzer auf einem neuen RDS Host anmeldet. So lange der Windows Suchdienst die Indexierung der OST-Datei nicht abgeschlossen hat erhält der Benutzer nur unvollständige Suchergebnisse.

Die Lösung für Suche in Outlook

Die RDS Gurus zeigen in ihrem Vergleich, dass der FSLogix Profile Container deutlich bessere Ergebnisse liefert als UPD. Im Fall von UPD werden keine oder nur unvollständige Ergebnisse bei der Suche in Outlook angezeigt, weil die OST Datei erst langwierig indexiert werden muss. FSLogix auf der anderen Seite lässt den Suchindexkatalog mit dem Benutzer mit wandern, so dass er sofort zur Verfügung steht. Damit bekommt der Benutzer von Anfang an exakte Suchergebnisse in Outlook angezeigt.

Diese Beobachtungen der RDS Gurus zeigen, dass FSLogix in non-persistent RDS Umgebungen mit Outlook die Akzeptanz und die User-Experience deutlich steigert.

Der komplette Artikel auf https://docs.microsoft.com/en-us/windows-server/remote/remote-desktop-services/rds-outlook-data-fslogix

FSLogix @ Prianto: http://www.prianto.com/hersteller-produkte/distribution/fslogix/

Cohesity SpanFS™ and SnapTree®

Die Mission von Cohesity ist es, den sekundären Speicher neu zu definieren. Herkömmliche Storage-Lösungen, wie zum Beispiel Dedupe-Appliances, Backup-Software und NAS-Geräte, können nicht mit den Bedürfnissen des modernen Unternehmens Schritt halten. Unternehmen müssen schnell steigende Datenmengen verwalten. Hochrechnungen von IDC geben 6 Zettabytes im Jahr 2016 an und prognostizieren 93 Zettabytes bis 2025. Der Trend in Unternehmen geht auch Richtung Multi-Cloud, somit müssen Daten in Cloud-Umgebungen für Recovery-, Test/Dev- und analytische Zwecke verfügbar gemacht werden.

Um diese unternehmerischen Herausforderungen zu lösen, hat Cohesity das Konzept des Hyperconverged Secondary Storage vorangetrieben, welches es Unternehmen ermöglicht:

  • Daten von verschiedenen sekundären Storage-Lösungen auf einer einzigen Web-Scale-Platform zu konsolidieren – einschließlich Backups, Dateien und Objekte
  • Unmittelbare Bereitstellung von Daten für die Wiederherstellung, Test/Dev und Analysezwecke
  • Verwalten von Daten in Multicloud-Umgebungen

Diese Vision von Hyperconverged Secondary Storage konnte Cohesity mit alten, herkömmlichen Dateisystemen nicht realisieren. Herkömmliche Dateisysteme wurden nur dahingehend optimiert, um z. B. Inline-Dedupe mit variabler Länge für Backup-Ziele zu ermöglichen.

Um Legacy-Storage-Silos auf zu brechen, musste Cohesity ein völlig neues Dateisystem entwickeln: SpanFS.
SpanFS wurde entwickelt, um alle sekundären Daten, einschließlich Backups, Dateien, Objekte, Test/Dev und Analysedaten, auf einer einzigen Web-Scale-Platform effektiv zu konsolidieren und zu verwalten.

SpanFS ist das einzige Dateisystem in der Branche, das gleichzeitig NFS-, SMB- und S3-Schnittstellen, globale Deduplizierung und unbegrenzte Snapshots und Clones bereitstellt. Und es bietet eine native Integration in Public Clouds, um eine Datenstruktur in Multi-Cloud-Umgebungen zu unterstützen, so dass Unternehmen Daten in die Cloud für die Archivierung oder für komplexere Anwendungsfälle, wie Disaster Recovery, Test/Dev und Analytics, senden können. All dies geschieht auf der grenzenlos skalierbaren Architektur von Cohesity, um die ständig wachsenden Datenmengen effektiv zu verwalten.

Werfen wir einen genaueren Blick auf die Architektur von SpanFS und wie es sich grundlegend von Legacy-Dateisystemen unterscheidet. Auf der obersten Ebene stellt SpanFS standardisierte, global verteilte NFS-, SMB- und S3-Schnittstellen bereit. Unterhalb den Zugriffsprotokollen verwaltet die IO Engine für alle Daten, die in das System geschrieben oder gelesen werden, die IO- Operationen. Es erkennt automatisch zufällige und sequentielle IO-Profile, teilt die Daten in Chunks auf, führt die Deduplizierung durch und leitet die Daten basierend auf dem IO-Profil auf die am besten geeignete Speicherschicht (SSD, HDD, Cloud Storage) . Um nach zu vollziehen auf welchen Cluster-Knoten die Daten liegen, musste Cohesity auch einen völlig neuen Metadatenspeicher aufbauen. Der Metadatenspeicher besteht aus einem konsistenten, verteilten NoSQL-Store. Er sorgt für schnelle IO-Operationen im verteilten System. Die SnapTree-Technologie bietet eine verteilte Metadatenstruktur auf Basis von B+ Tree-Konzepten. SnapTree ist einzigartig in seiner Fähigkeit, unbegrenzte und häufige Snapshots ohne Leistungseinbußen zu unterstützen. SpanFS hat QoS-Controls in allen Ebenen eingebaut, so dass QoS abhängig vom Workload oder abhängig vom Mandant gesteuert werden kann. SpanFS kann auch replizieren, archivieren und Daten zu einem anderen Cohesity-Cluster oder in die Cloud auslagern.

SnapTree stellt einen völlig neuen Ansatz für die Verwaltung von Metadaten in verteilten Systemen dar. Im herkömmlichen Storage-Systemen bilden Snapshots die Glieder einer Kette, wobei jedes Glied die Änderungen aus dem vorherigen Snapshot enthält. Jedes Mal, wenn ein neuer Snapshot durchgeführt wird, wird ein zusätzliches Glied zur Kette hinzugefügt. Und genau das sorgt für enormen Leistungsverlust.

Um unbegrenzte Snapshots und Clones in verteilten Systemen zu gewährleisten, verwaltet SnapTree die Metadaten mit einer B+ Tree-Metadatenstruktur, fügt jedoch mehrere Neuerungen hinzu:

  • Verteilt die B+ Baumstruktur über Cluster-Knoten
  • Bietet gleichzeitigen Zugriff von mehreren Cluster-Knoten
  • Unterstützt die Erstellung von Instant-Clones und Snaps

Innerhalb SnapTree werden Views (Volumes) und Dateien anhand einen Baumstruktur von Zeigern (Pointers) dargestellt, die auf die zugrunde liegenden Daten zeigen. Der Wurzelknoten verweist auf einige Zwischenknoten, die wiederum auf die Blattknoten zeigen, die den Ort der Datenblöcke enthalten. Man kann Snapshots von kompletten Views (Volumes) machen oder auch nur von einzelne Dateien innerhalb der Views. Wenn Snapshots gemacht werden, erhöht sich nicht die Anzahl der Hops von der Wurzel bis zu den Blättern. Man kann Snapshots so oft machen wie man will – ohne jeglichen Leistungsverlust.

SpanFS und SnapTree in Kombination bieten ein einzigartiges Dateisystem, das speziell für die Konsolidierung von Sekundärspeicher entwickelt wurde. Dies ist die technische Grundlage, die Hyperconverged Secondary Storage ermöglicht. Damit gewinnt man die Kontrolle über seine Daten zurück.

Weitere Infos zu SpanFS und SnapTree:
Download White Paper
Light Board Video anschauen
Cohesity Website

Die IT-Asset-Optimierung harmonisiert – Anwender und IT-Abteilung im Einklang

Innerhalb vieler PCs im Unternehmen existiert ungenutztes Potenzial für Einsparungen und bessere Systemleistung.

Die letzten 10 Jahre in großen Desktop-Transformationsprojekten wurde das Bereitstellen von Managed-Desktops immer günstiger. Gleichzeitig hat sich die Komplexität jedoch dramatisch erhöht, wobei neue Technologien und Delivery Platforms ständig weiterentwickelt und eingeführt wurden und somit eigentlich große Chancen zur weiteren Senkung der Kosten für die Bereitstellung oder die Verwaltung vorhanden waren.

Dennoch haben viele Organisationen die Kosteneinsparungen, die aus der so genannte Consumerization of IT resultierten, nicht erkannt. Vielmehr haben IT-Verwaltung und Nutzer gegeneinander gearbeitet und unterschiedliche Ziele verfolgt. Diese Kluft ist gewachsen, da sich Benutzer an „unbegrenzte Apps“ auf persönlichen Geräte gewöhnt haben und erwarten, dass ihre Arbeitsgeräte gleiche Leistung, Benutzerfreundlichkeit und App-Verfügbarkeit mitbringen. Auf dem privaten Handy hat man unzählige „persönliche Anwendungen“, im Gegensatz zu den vielleicht Dutzenden Anwendungen auf einem Arbeits-Laptop, die man benötigen, um Arbeitsaufgaben abzuschließen. Eines ist sicher – wir sind in einem „Application Overload“.

IT-Asset-Optimierung ist die Antwort auf den schwindelerregenden Zustrom neuer Technologien am Arbeitsplatz. Durch die Reduktion von Hardware und Anwendungen auf genau die Bedürfnisse, die die Nutzer brauchen, können Unternehmen die Betriebskosten rationalisieren und die IT-Anstrengungen auf die Verbesserung der „End-User-Experience“ konzentrieren.

Wie in jeder Optimierungsdiskussion kommt hier das Motto „weniger ist mehr“ zum Tragen. Das Problem ist, die meisten Organisationen wissen einfach nicht, was sie derzeit haben (und wie es verwendet wird), so dass sie nicht in der Lage sind, zu beurteilen, was wirklich gebraucht wird.

Man beginnt mit dem „was man hat“ (oder denkt, was man hat)

Man startet einfach damit, dass klar ist, dass Inventurlisten in Excel einfach nicht funktionieren! Wenn das Einkaufsteam solche Listen verwaltet, dann ist dort gelistet, was gekauft wurde. Wie oft werden solche Listen tatsächlich von anderen Teams in der Organisation aktualisiert?

Zum Beispiel könnte ein Service Desk-Team mehr Speicher für eine Maschine hinzufügt habe, um ein akkutes Problem zu beheben. Die Inventurliste wurde jedoch niemals aktualisiert, so dass die Hardwareänderung nicht berücksichtigt ist. Oder, Geräte wechseln den Besitzer, weil jemand das Unternehmen verlassen hat und ein andere eingestellt wurde. Allerdings wurde der Einkauf darüber nicht informiert. Es ist klar, Excel-Listen sind nur vage Informationen und zum Zeitpunkt eines Audits helfen sie einem nicht aus der Patsche. Man muss genau festhalten, was eingesetzt und genutzt wird.

Erkennen und entscheiden, was ausgemistet wird

Sicher zu stellen, dass der Softwaregebrauch niedriger ist als die beschafften Lizenzen, hilft offensichtlich bei empfindlichen Geldstrafen nach einem Software-Audit (was wir in der Presse häufiger lesen). Andererseits ist die Überlizenzierung für Software eine große Chance, IT-Ausgaben zu reduzieren. Mit Software, die ca. 30% der Desktop-Ausgaben aus macht, und laufende Software-Wartungsverträge im Durchschnitt 20%, ist es wichtig, sicherzustellen, dass man als Unternehmen nur das bezahlt, was auch genutzt wird.

In den Griff bekommt man das, wenn man die Daten aus dem sogenannten Workplace Analytics nutzt. Dabei wird eine umfangreichen Anzahl von Informationen von Benutzern und dem Gerät automatisch erfasst. Die Analyse der Arbeitsumgebung liefert ein komplettes Bild vom dem, was auf einem Gerät installiert ist, und auch, wie und wann Anwendungen verwendet werden. Dies gibt der IT-Abteilung ein Verständnis dafür, wie häufig die Applikationen genutzt werden (wenn überhaupt), so dass eine Vielzahl von Entscheidungen über die IT-Asset-Optimierung getroffen werden können, einschließlich Provisioning, Lizenzoptimierung und wie zuverlässig Softwarepakete bereitgestellt werden können. Letztendlich kann dies dazu führen, dass die Lizenzkosten gesenkt werden, indem Anwendungen entfernt und Lizenzen einspart werden, die selten genutzt werden.

Die Lizenzierung kann auch gestrafft werden, wenn Administratoren bemerken, dass alle Anwender ein ähnliches Softwareportfolio benötigen, das durch eine andere Lizenz und somit potenziell viel kostengünstiger und effektiver abgedeckt werden kann.

Sobald sich die Verantwortung für die Software-Bereitstellung von der IT-Abteilung zu einem Dienstleister verschiebt, ist es ebenso wichtig für die IT, nach zu verfolgen, ob der Anbieter seine SLAs einhält, um bei Dienstunterbrechung effektiv auch weniger zu bezahlen.

Erkennen von ungenutzten Systemen und intelligente Beschaffung

In ähnlicher Weise wie die Analyse der Anwendungsnutzung, um festzustellen, wo Lizenzen eingespart werden können, bietet das Workplace Analytics einen klaren Einblick, wie die Leistung von PCs und Systemen tatsächlich ausgenutzt wird. Das Verständnis der Performance-Metriken auf jedem Gerät ermöglicht eine präzise Entscheidungen nicht nur, ob neue Hardware erforderlich ist, sondern auch, ob das Arbeitsverhalten ein geeigneter Kandidat für die Desktop-Virtualisierung ist. Möglicherweise reicht auch ein deutlich günstigeres Gerät aus.

Mit dem zunehmenden Hype zur Cloud-basierten Bereitstellung von Desktop- und echten DaaS-Modellen ist es von großem Vorteil, detailliert die Anforderung an Leistungsdaten (CPU, RAM, IO, Netzwerk, GPU) für die verschiedenen Anwendungen zu verstehen. Genau dann kann an Hand von Messwerten beurteilt werden, ob eine Desktop-Bereitstellung in solchen Umgebungen sinnvoll ist oder nicht. Nur dann ist auch sichergestellt, dass die Kosten für die Migration in Cloud-basierten Bereitstellungen von Desktop- und echten DaaS-Modellen im Vorfeld bekannt sind.

Bekanntlich muss zur Risikominimierung der Bedarf genau taxiert werden und das Inventar entsprechend verwaltet. Allerdings kann man durch eine IT-Asset-Optimierung noch viel mehr gewinnen als nur Einsparungen aus Software-Lizenzen. Mit Hilfe von Workplace Analytics, mit der permantent akkurate Nutzungsdaten gesammelt werden, kann die Beschaffung absolut bedarfsgerecht erfolgen und anhand der Leistungsdaten genau überwacht werden, ob SLAs bei Cloud-Diensten eingehalten werden, und die nötige „End-User-Experience“ gewährleistet ist. Mit diesem Benutzer-zentrierten Ansatz sind IT und Anwender auf der gleichen Seite. Die IT-Abteilung versteht deutlich besser, was die Anwender tatsächlich benötigen, um produktiv zu sein.

Wie wir bereits bemerkt haben, „Anwender sind auch Menschen“. Workplace Analytics liefert den Administratoren die Fertigkeiten, um IT-Assets zu optimieren. Die Beschaffung wird bedarfsgerecht und die End-User-Experience steigt.

Lakeside Software – Systrack – Workplace Analytics

Kostenlose Tools für das Planen von Backups

Viele von uns verwenden für die Verwaltung und das Planen einer Wiederherstellung eventuell ein Monitoring-Tool oder Sammlungen von Tools. Allerdings haben wir oft lückenhafte Informationen über die Zuteilung der Menge an Storage innerhalb der Infrastruktur. Diese Lücken kommen meist dann ans Tageslicht, wenn man versucht, die Menge der Daten zu schätzen oder zu verstehen versucht, wie der Storage verwendet wird. Die Herausforderung ist dann besonders groß, wenn man unglücklicherweise an die Grenzen des Backup-Storage stößt. In dieser Situation wäre es ziemlich hilfreich, genau zu verstehen, was überhaupt alles gesichert werden muss, bevor man das gute Geld für zusätzlichen Storage investiert. Tatsächlich hat man möglicherweise Daten, die man garnicht sichern braucht oder sie sind sogar doppelt vorhanden. Fakt ist, dass die meisten von uns nicht die passenden Tools haben, um akkurat das „Was“ und „Wo“ der Daten fest zu stellen.

Unitrends bietet 3 kostenlose Tools, mit denen man das Planen von Backup und Wiederherstellung beginnen kann.

BC/DR Link – ist ein Online Service Tool, mit dem man einen DR Plan erstellen und anpassen kann, um eine zuverlässige Aussage über Ausfallszenarien und die schnelle Wiederherstellung machen kann.

Recovery Time Actual Calculator – berechnet die Zeit wie lange das Wiederherstellen von kritischen VMs dauert.

Unitrends Free – ist eine kostenlose Backup Software, die auf einfache Weise als virtuelle Appliance auf VMware vSphere oder Microsoft Hyper-V bereitgestellt wird. Man kann bis zu 1TB an Daten sichern. Es gibt keine Beschränkung bezüglich der Anzahl der VMs oder der CPU-Sockets.

Für denjenigen, der seine VMs in die Cloud verschieben möchte, bietet Unitrends ein kostenloses Migrations-Tool.

Free VMware Migration to AWS or Azure – konvertiert die VMs, so dass sie in AWS oder Azure laufen und kopiert sie auf günstigen AWS S3 oder Azure Blob Storage. Das kostenlose Tool sorgt sogar für die richtige Transformation der Netzwerkverbindungen zwischen VMware und AWS. Das Migrieren von VMs in die Cloud geht damit sehr einfach.

Cohesity – Die erste Storage-Plattform, die Datensicherung und Big-Data-Silos in einer grenzenlos skalierbaren Infrastruktur vereint

Cohesity, der Pionier des „Hyperconverged Secondary Storage“, hat kürzlich die neue Plattform Cohesity Orion 5.0 angekündigt, die voraussichtlich ab November für alle Kunden verfügbar sein wird.

Bei Orion 5.0 handelt es sich um die erste Storage-Plattform, die end-to-end-Datensicherung und Big Data-Storage auf einer verteilten Plattform vereint, die unendlich skalierbar ist. Die neueste Version von Cohesitys bahnbrechender secondary-storage-Plattform bietet radikale Effizienz durch den Einsatz als Backup-Lösung und voll durchsuchbarem Archiv für große Mengen von strukturierten und unstrukturierten Daten. Durch die Kombination von früher getrennten Lösungen auf einer gemeinsamen Plattform, die sowohl in der Cloud wie on-premise zu Hause ist, ermöglicht Cohesity Orion Unternehmen, die Administration zu vereinfachen, Datenkopien zu reduzieren, Such- und Wiederherstell-Vorgänge zu beschleunigen – und nicht zuletzt erhebliche Einsparungen beim Storage!

Diese neuen Features bringt das Orion-Release:

>> Einfache Datensicherung und Instant Recovery für jede Plattform
>> Unlimitiertes Scale-Out für Dateien und Objekte mit globaler Suche
>> Multi-Cloud-Datenstruktur für Disaster Recovery, Test/Dev & Analytics
>> Cohesity SpanFS und SnapTree Web-Scale-Dateisystem, optimiert für Secondary Storage

Hyperconverged Secondary Storage ermöglicht Unternehmen, drei Dinge zu tun:

1. Konsolidierung von Secondary Storage-Silos in einer Web-Scale-Plattform

Orion vereint traditionelle Storage-Silos wie Backup-Software, Deduplizierungs-Appliances, File-Storage, Object-Storage und Cloud-Gateways in einer einzigen Plattform mit überragender Effizienz. Cohesity ist darauf ausgelegt, auf Hunderte von Storage-Knoten zu skalieren, um auch große Datenmengen effizient zu verwalten.

2. Direkte Bereitstellung von Daten für Recovery, Test/Dev und Analytics

Orion bietet nicht nur ein einfaches Copy Data Management. Redundante Kopien von Daten werden nicht mehr gebraucht. Anders als andere „Backup first“-Lösungen erstellt die patentierte SnapTree-Technologie blitzschnell Klone beliebiger Daten (Backups, Dateien, Objekte). Und das alles zu beliebigen Zeitpunkten in beliebiger Menge und ohne jegliche Performance-Einbußen. Diese Daten werden dem Benutzer direkt über die verteilte Cluster-Infrastruktur hochperformant als NFS/SMB-Freigaben oder als S3-kompatiblen Zugang zur Verfügung gestellt. Damit können Anwendungen die Daten direkt für Recovery, Test/Dev und Analyse-Workflows verwenden.

3. Einrichtung einer Multi-Cloud-Datenstruktur

Orion macht den Umgang mit Public Clouds einfach. Es bietet eine native Integration für alle führenden Public Clouds (MS Azure, Amazon Web Services und Google Cloud) für die langfristige Datenaufbewahrung (CloudArchive) und die Auslagerung von Daten (CloudTier). Kunden können Cohesity jetzt auch direkt in der Cloud selbst betreiben (CloudEdition), um Daten in der Cloud zu replizieren und tatsächlich auch zu verwalten. Egal ob für Disaster Recovery, Test/Dev oder Analytics – Kunden könnne diese Daten und Anwendung somit auf einfache Weise in die Cloud verlagern.


Im Folgenden finden sich einige weiterführende Informationen zu den Neuerungen in Cohesity Orion 5.0:

Unterstützung aller führenden Hypervisoren mit automatischer Datensicherung für Microsoft Hyper-V 2012R2 (mit agentenlosem CBT), Hyper-V 2016 (unter Verwendung des neuen RCT change trackings), Nutanix AHV und Linux KVM

Automatisierte Datensicherung für jedes NAS-Storage, inklusive snaphot-basierte Data Protection für Pure Storage FlashBlade, NetApp und Dell EMC Isilon. Orion erstellt hochperformante NAS-Backups mit Hilfe das „Parallel Tracking“-Mechanismus von geänderten Daten und Multistream-Datentransfers. Backups können blitzschnell zu jedem Zeitpunkt wiederhergestellt werden – entweder direkt aus Cohesity heraus, oder durch Verlagerung der Daten an den ursprünglichen Ort oder auf jeden anderen Speicherplatz.

Automatisierte Datensicherung für Oracle-Datenbanken: Orion beinhaltet eine richtlinienbasierte Automatisierung für Backups von Oracle-Datenbanken mit RMAN. Source-side-Deduplizierung, Oracle RAC und ASM werden unterstützt. Auch Oracle-Logs werden gesichert, so dass die Widerherstellung eines beliebigen Zeitpunkts möglich ist. Schlussendlich kann man auch ganz einfach Klone einer Datenbank bereitstellen und die Datenbank in Cohesity mounten (oder 3rd-party-Storage), damit sie unmittelbar wiederhergestellt werden kann oder einfach nur Test/Dev-Szenarien zu beschleunigen.

File-Level-Backups für physische Linux-Server, zusätzlich zu volume-based-Backups und Bare-Metal-Restores für Windows-Server.

Erweiterte Unterstützung für Microsoft SQL. Orion unterstützt jetzt Windows Clustering und SQL AAG. Orion ermöglicht ein live-Clone-Attach direkt über Cohesity oder das Verlagern auf 3rd-party-Storage für die unmittelbare Wiederherstellung und für schnellere Test/Dev-Zwecke.


Multi-Protokoll-Zugang über NFS, SMB und S3. Orion bietet global verteilte NFS-, SMB und S3-Views: Die Views können für den Multi-Protokoll-Zugriff über NFS, SMB und S3 konfigurieren.

Global deduplizierte S3-Objekt-Storage: Orion bietet den einzigen, global deduplizierte, S3-kompatible Objekt-Storage.

Indexierung und globale Suche: Orion indexiert alle Dateien und Objekt-Metadaten und ermöglicht die globale Suche über einen ganzen Cluster hinweg.

Benutzer- und Datei-System-Kontingente mit Audit-Logs

C3000-dense-storage-Knoten: Zusätzlich zur C2000-Serie kann Orion jetzt auch auf einem neuen C3000-dense-storage-Knoten installiert werden. Jeder Knoten bietet bis zu 183TB Roh-Kapazität in einem 2U-Formfaktor und bietet fast die doppelte Storage-Dichte im Vergleich zu C2000. C3000 ist für große Dateien und Objekte optimiert. Jeder Cohesity-Cluster kann C2000 und C3000-Knoten kombinieren, während Orion intelligente Daten-Platzierung über Knoten-Typen mittels IO-Profilen und QoS ermöglicht.


DataPlatform Cloud Edition (CE) ist jetzt für Microsoft Azure verfügbar und im Azure Marketplace erhältlich. DataPlatform CE ist eingeschränkt ebenfalls bei Amazon Web Services verfügbar. DataPlatform CE erlaubt es Benutzern, einen Cohesity-Cluster in der Public Cloud auszurollen. Benutzer können Daten in die Cloud replizieren, Daten in der Cloud verwalten und ohne Wartezeit Applikationen für Disaster Recovery, Test/Dev und Analytics provisionieren.

Cloud-Disaster-Recovery: Orion kann ein ganzes Rechenzentrum in der Public Cloud wiederherstellen, und das nahezu sofort und zu jedem Zeitpunkt.


Orion ist ein großes Release. Alle Innovationen, die es enthält, werden durch das zugrundeliegende Datei-System ermöglicht: Cohesity SpanFS. SpanFS wurde von Grund auf entwickelt, um den Secondary Storage zu konsolidieren. Es ist das einzige Dateisystem, dass gleichzeitig verteilte NFS, SMB und S3-Interfaces bereitstellt, globale Deduplizierung ermöglicht und unlimitierte Snapshots und Klone ermöglicht, und das auf einer Web-Scale-Plattform. Und es beinhaltet SnapTree, eine verteilte Metadaten-Struktur, die auf dem B+ Tree-Konzept basiert. SnapTree liefert unlimitierte und häufige Snapshots ohne Performance-Verluste. Es gibt kein anderes Dateisystem auf dem Markt, das die Eigenschaften von SpanFS und SnapTree vereint. Das ist die technologische Basis, die Web-Scale Secondary Storage möglich macht und Ihnen die Kontrolle über Ihre Daten zurückgibt.

 

Kurzum: Seit seinen Anfängen verfolgt Cohesity das Ziel, den Secondary Storage neu zu definieren und Unternehmen die Kontrolle über ihre Daten zurückzugeben. Das neue Orion-Release bringt Cohesity diesem Ziel einen sehr großen Schritt näher!

 

 

Autotask & Webroot – RMM verbessern, Endpoint Security erhöhen und Kosten sparen

In diesem Webcast wird die brilliante Kombination aus Autotask und Webroot gezeigt.
Neben der Vorstellung und der Integration der beiden Lösungen berichtet der CEO von PC Spezialist., Lars Larscheid, über seine praktitschen Erfahrungen mit dieser Kombination als Managed Service Provider.

Neues Tool für Managed Service Provider: Sicherheit für KMUs mit DNS Protection

Unkontrollierter Internet-Zugang für Mitarbeiter ist ein hohes Risiko für Unternehmen jeder Größe, aber besonders für kleinere und mittlere Betriebe (KMUs). Internet-Proxy-Lösungen sind schwierig zu verwalten, kostengünstige Alternativen sind rar. Das führt oft dazu, dass sich Kunden nur auf Endpoint Security verlassen, um ihr Unternehmen vor Bedrohungen aus dem Netz zu schützen, die eigentlich schon außerhalb des Unternehmensnetzwerks gestoppt werden sollten.

MSPs wissen, wie schwierig es ist, eine günstige Lösung für Internet-Bedrohungsvektoren zu finden, die einfach zu verwalten und zuverlässig ist, sowie entsprechenden Schutz bietet. Webroot SecureAnywhere DNS Protection wurde genau für diesen Zweck entwickelt, um MSPs ein Tool für bessere Internet-Sicherheit im Internet an die Hand zu geben. Mit Hilfe der cloudbasierten Sicherheitsschicht, die auf DNS-Ebene arbeitet, werden die Benutzer bereits von außen geschützt. Auf der Anbieterseite werden Bedrohungen bereits gebannt, bevor sie überhaupt das Kundennetz erreichen.

Schutz direkt aus der Webroot DNS Cloud

Das „Domain-Name-System“(DNS) ist eine hierarchisch gegliederte Benennungskonvention für Dienste, Computer und andere Ressourcen, die mit dem Internet oder einem privaten Netzwerk verbunden sind. DNS-Server wandeln textbasierte Browser-Eingaben in Internet-Protocol (IP)-Adressen um, die Geräte und Services zur gewünschten Website bringen. Durch Umleitung der Browser-Eingaben über die Webroot DNS-Cloud erlangen MSPs Kontrolle über die Internet-Aktivitäten der User. Die gefährlichsten Webseiten werden sofort automatisch blockiert, alle anderen werden nach URL-Kategorien eingestuft und stehen unter Echtzeit-Kontrolle.
Webroot SecureAnywhere DNS Protection bietet einen simplen aber effektiven Weg, damit Internet-Nutzung nicht zum Sicherheits-Risiko wird. Die DNS Protection Management-Konsole ist direkt in die Global Site Manager-Sicherheitskonsole für MSPs integriert. Bei jedem Kundenkonto können Administratoren die Richtlinien zum Internet-Zugang detailliert einrichten, mit globalen oder konto-basierten Richtlinien. Die Einrichtung ist denkbar einfach: Im Drop-Down-Menü einige Kunden- und Site-IP-Adresse-Details eintragen, ein kurzer Validierungs-Test mit der Kommando-Zeile und der Service ist startbereit. Jede Kunden-IP-Adresse kann einer eigenen Richtlinie zugeordnet werden, sodass auch Gast-Netzwerke oder komplexe Seiten-Richtlinien einfach gemanagt werden können.

Ein einfacher Service mit fortschrittlicher Intelligenz

Webroot SecureAnywhere DNS Protection beruht auf der Webroot Threat Intelligence Platform – der cloudbasierten Sicherheits-Analyse-Architektur, die für den Multi-Vektor-Schutz für Webroot-Lösungen und -Services entwickelt wurde. Die Plattform erhebt riesige Datenmengen von Millionen weltweit verteilter Sensoren und Endpunkten sowie anderer verifizierter Quellen. Diese Datenmengen werden dann in der Cloud mithilfe von Machine Learning und Verhaltens-Heuristiken analysiert und klassifiziert.
Die URL-Filter der DNS Protection basieren auf Daten der Webroot BrightCloud Web-Klassifizierung. Diese URL-Datenbank ist die größte ihrer Art, dafür werden ständig über 600 Millionen Domains klassifiziert und in Echtzeit eingepflegt. Webroot analysiert und klassifiziert über 5.000 URLs pro Sekunde. Zusätzlich scannt Webroot den kompletten IPv4-Adressraum und in Benutzung befindliche IPv6-Adressen und klassifiziert so über 95% des Internets, und das drei Mal täglich. Webroot prüft kontinuierlich über 4 Milliarden IP-Adressen, 27 Milliarden URLs und findet mindestens 25.000 schädliche URLs, 6.000 neue Phishing-Seiten und über 100.000 bösartige IP-Adressen pro Tag! Der Threat-Intelligence-Service wird von über 40 weltweit führenden Netzwerk- und Security-Anbietern verwendet.
Webroot bietet mehr als 80 URL-Kategorien, um MSPs dabei zu helfen, die Nutzungs-Richtlinien ihrer Klienten richtig einzustellen. Mithilfe der Webroot-Datenbanken und -Services blockieren Sie schädliche Webseiten und filtern unerwünschte Seiten einfach heraus, um Bedrohungen durch Malware für Kundennetzwerke und Endpunkte drastisch zu reduzieren.

SecureAnywhere DNS Protection auf einen Blick:

  • voll in den Global Site Manager integriert: mit einem Blick alle Installationen über verschiedene Sites hinweg sehen
  • keine Hardware- oder Software-Installation: einfach innerhalb von Minuten im Global Site Manager einstellen
  • Multi-Plattform-Schutz: für Windows, Mac, Linux, Android und iOS
  • schnell und einfach ausgerollt: leitet die Netzwerk-Konfiguration in wenigen Minuten zu Webroot DNS Protection-Server-IPs um
  • sichere, leistungsfähige DNS-Server: skalierbare DNS-Resolver-Server mit sicherem DNS-Zugang zum Internet
  • sofort verbunden: Der DNS Protection Service verarbeitet 30 Milliarden-User-Anfragen pro Sekunde und Knoten, es sind über 30 Knoten im Einsatz
  • niedrige Latenzen für User: Filtern nach Domain-Kategorisierung, nicht durch volle Proxy-Scans
  • Richtlinien per IP, Dynamic IP oder beides: vorgefertigte oder eigene Richtlinien schützen Kunden schnell, einfach und effizient
  • on-demand Drill-down Reporting: automatische Reports über Bedrohungen, die dank der DNS Protection abgewehrt werden konnten
  • anpassbare Blockier-Seiten: verwenden Sie kundeneigene Blockier-Nachrichten, wenn User auf gesperrte Inhalte zugreifen möchten
  • Whitelist/Blacklist-Unterstützung: Overrides schnell nach Kundenbedarf definieren
  • fertige Richtlinien und granulare Filter-Optionen: Webseiten werden nach 82 Kategorien bewertet und geblockt (Sicherheit, Erwachsenen-Inhalte etc.)

Unschlagbare Vorteile:

Neben dem offensichtlichen Vorteil eines sauberen Netzwerks bedeutet Webroot SecureAnywhere DNS Protection auch höheren Schutz gegen Malware: weniger Traffic zu gefährlichen Seiten heißt weniger Bedrohungen, die das eigene Netzwerk erreichen – sehr viel weniger!

  • höherer Durchsatz im Netzwerk: Das Blockieren von Streaming und anderer unerwünschter Inhalte erhöht die verfügbare Bandbreite enorm.
  • ständige Updates der URL-Filter: stets aktuelle Kategorisierungen
  • niedrigere TCO und bessere Margen: minimaler Aufwand beim Ausrollen und Verwalten, weniger Infektionen, weniger Arbeit für MSPs
  • höhere Kundenzufriedenheit: Weniger Infektionen und Online-Ablenkungen führen zu höherer Produktivität beim Kunden.