Archivierung sorgt gelegentlich für hitzige Debatten. Chinesische Wissenschaftler beschäftigen sich mit der Reanimation optischer Medien. Das dürfte Rimage, einen Pionier bei der Entwicklung und Herstellung Storagesystemen auf Basis optischer Medien, freuen.
Die Herausforderung vieler ITOM-Teams ist die schiere Flut an Daten, die jede Sekunde von jedem Dienst, jedem Gerät, jeder Anwendung und jedem Anwender – kurz von jedem einzelnen Netzwerkobjekt generiert werden. Zwar helfen Tools wie Apaches Kafka, die Informationen zu sortieren und in geregelte Bahnen zu lenken. Es sind dennoch immer noch nur Informationen: gebündelt, aber nicht analysiert, priorisiert oder bewertet und verarbeitet. CloudFabrix packt das Übel an der Wurzel bzw. dem Datenstrom und versenkt kleine Bots in den Datenfluten.
Cloud-Backup-Pionier HYCU will mit der generativen AI Claude von Anthropic überlastete DevOps und Junior-Entwickler entlasten. Die KI soll dabei helfen, bessere Integrationen zu entwickeln und Cloud-Backup sicherer zu machen.
Je größer die Datenmengen desto höher die Anforderungen. Es reicht nicht, Daten nur zu haben. Anwendungen (und Anwender) wollen schnell auf die Informationen zugreifen und sie verarbeiten. Je nach File- oder Storagesystem sorgen RAID-Verbünde für Ausfallsicherheit. Wie verfügbar und ausfallsicher Daten letztendlich sind, hängt von vielen Faktoren ab. Worauf man achten kann und warum erklären wir mit diesem Artikel.
Geht es um die langfristige Aufbewahrung von Daten, ist Tape für viele Unternehmen der Speicher der Wahl. Doch nicht für alle kommt eine Verlagerung ihrer sensiblen Informationen in die Cloud in Frage. Eine Kooperation von PoINT Software & Systems, Hammerspace und Grau Data erweitert moderne Datenversen um On-Prem-Tape-Libraries. Damit lassen sich Daten auch auf Bandlaufwerken in die einheitliche Datenumgebung – einen Global Namespace – integrieren.
Generative künstliche Intelligenzen (Generative KI) beherrschen spätestens seit ChatGPT die Schlagzeilen. Die Grundlage dieser neuen Generation KI sind Große Sprachmodelle (Large Language Models, LLMs). Um das Potenzial der Technologie voll ausschöpfen zu können, sind Interaktionen in Echtzeit erforderlich. Groq ist ein Startup aus dem Silicon Valley und adressiert mit seiner LPU dieses Problem.
Kubermatic, ein Experte für die Automatisierung von Kubernetes-Management geht 2024 von einem steigenden Bedarf für Container-Plattformen aus. Die wachsende Nachfrage trifft dabei auf große Herausforderungen. Kubermatic-CEO + Co-Founder Sebastian Scheele hat uns seine Überlegungen zu den Trends und Entwicklungen im Jahr 2024 für diesen Beitrag zur Verfügung gestellt.