Big Data bezeichnet zusammengefasst Datenmengen aus unterschiedlichsten Quellen, die zu groß oder komplex sind, um sie mit klassischen Methoden der Datenverarbeitung auszuwerten.
IT- und Cloud-Umgebungen werden immer komplexer. Konzepte wie Observability sollen sicherstellen, dass IT-Fachleute, Entwickler und Security-Spezialisten den Überblick behalten.
>>
Wie stelle ich meine IT-Infrastruktur zukunftssicher auf? Wie optimiere ich durch Automatisierung meine Prozesse? Und wie nutze ich Data gewinnbringend? All diese Fragen werden auf der MOONOVA 2023 vom 14. bis 16. März beantwortet. Jetzt anmelden!
>>
Microsoft hat den Datenprozessor-Hersteller Fungible übernommen. Ziel ist es offenbar, die hauseigenen, für den Betrieb der Azure-Cloud verwendeten Rechenzentren in Sachen Netzwerk- und Speicherleistung zu verbessern.
>>
Damit Entscheider in einem sich stetig wandelnden Markt kompetent agieren können, müssen ihnen überall sicher und schnell Daten(-Analysen) zur Verfügung stehen. Denn diese bilden die Basis für erfolgreiche Unternehmensentscheidungen. Es braucht daher eine „Data First“-Strategie.
>>
Qlik AutoML soll sich besonders für die 90 Prozent der Anwendungsfälle eignen, die kein tiefes Fachwissen professioneller Data Scientists benötigen.
>>
Dänische und Schwedische Forscher haben einen neuen Geschwindigkeitsrekord bei der Datenübertragung aufgestellt. Dank photonischer Chips gelang ihnen eine Übertragungsrate von 1,84 Petabit pro Sekunde.
>>
Die auf der Data-Lakehouse-Architektur basierende Cloudlösung CDP One von Cloudera soll Unternehmen befähigen, aus ihren Daten einfacher und schneller wertvolle Erkenntnisse zu gewinnen. Die neue SaaS kommt am 27. September auf den Markt.
>>