Gestaffelte Cyberangriffe: Warum DNS zum Frühwarnsystem wird

IT-Infrastrukturen sind zunehmend Angriffen ausgesetzt, die nicht spontan erfolgen, sondern langfristig vorbereitet werden. Darauf weist der DNS Threat Report 2025 von EfficientIP hin. Cyberkriminelle agieren heute schneller, unauffälliger und stärker industrialisiert als noch vor wenigen Jahren. Sie bauen bösartige Infrastrukturen im Voraus auf, halten sie über längere Zeit inaktiv und aktivieren gezielt nur einzelne Teile davon, wenn der grösste Schaden zu erwarten ist. Konkret bedeutet das: Angreifende registrieren massenhaft Domains, bündeln ihre Infrastruktur zentral und automatisieren ihre Kampagnen so weit, dass bereits kleine Gruppen weltweit operieren können. Zugleich stimmen sie ihre Aktivitäten gezielt auf geschäftskritische Phasen ab, etwa auf umsatzstarke Zeiten im Handel oder auf besonders sensible Ereignisse im Unternehmensalltag. Die Folge: Angriffe verbreiten sich in hoher Geschwindigkeit, während Phishing, Malware und betrügerische Kampagnen immer professioneller orchestriert werden. All diese Beispiele zeigen dieselbe Entwicklung: Cyberangriffe werden heute langfristig vorbereitet, hochgradig automatisiert gesteuert und gezielt zum passenden Zeitpunkt ausgelöst. Für Unternehmen ist dabei aus unserer Sicht vor allem eines entscheidend: Viele dieser Angriffe beginnen nicht erst mit einer infizierten E-Mail oder einer kompromittierten Website. Sie kündigen sich schon früher an, nämlich in der DNS-Infrastruktur. Dort werden verdächtige Domains angelegt, wiederverwendet, verzögert aktiviert oder für burst-gesteuerte Kommunikation vorbereitet. Genau diese Phase bleibt in klassischen Sicherheitskonzepten oft unsichtbar. Genau deshalb betrachten wir DNS als wertvollen Frühindikator für gestaffelte Angriffe. Richtig ausgewertet, liefert es frühe Hinweise auf koordinierte Angriffskampagnen, noch bevor Mitarbeitende, Kunden oder Geschäftsprozesse konkret betroffen sind. Für Security Teams ist das ein entscheidender Vorteil: Wer solche Signale früh erkennt, kann eingreifen, bevor aus Vorbereitung ein echter Vorfall wird. Das ist auch der Grund, warum rein manuelle Analysen heute kaum noch ausreichen. Die Menge, Geschwindigkeit und Komplexität moderner Angriffsmuster übersteigen längst das, was sich mit klassischen Mitteln zuverlässig überblicken lässt. Gefragt sind deshalb Lösungen, die DNS-Daten laufend auswerten, Anomalien erkennen und verdächtige Verhaltensmuster mit weiteren Kontextinformationen verknüpfen. EfficientIP verfolgt dafür einen KI-gestützten Ansatz. Die Plattform kombiniert Echtzeit-DNS-Überwachung mit cloud-basierter Threat Intelligence und analysiert nicht nur einzelne Auffälligkeiten, sondern auch das technische Umfeld von Domains, Clients und Infrastrukturen. So lassen sich Muster erkennen, die auf Phishing, DGA-Malware, betrügerische Websites oder ruhende Angriffsinfrastrukturen hinweisen. Wer DNS gezielt als Frühindikator nutzt, verbessert nicht nur die Erkennung, sondern stärkt die eigene Handlungsfähigkeit insgesamt. Denn bei modernen Cyberangriffen reicht es nicht mehr, erst auf sichtbare Schäden zu reagieren. Entscheidend ist, Angriffe bereits in ihrer Vorbereitungsphase zu erkennen und möglichst früh zu unterbrechen. Dabei unterstützen wir Sie mit fundierter Beratung und passenden Lösungen für eine proaktive DNS-basierte Sicherheitsstrategie.

Der neue Kollege im System: KI-Agenten im Sicherheitscheck

KI-Agenten halten Einzug in Unternehmenssysteme. Sie analysieren Daten, steuern Prozesse und treffen eigenständig Entscheidungen. Was nach Effizienzgewinn klingt, wirft jedoch eine zentrale Frage auf: Wie sicher sind autonome Systeme im Unternehmensnetzwerk? Künstliche Intelligenz verlässt zunehmend die Experimentierphase. Während viele Unternehmen bisher vor allem mit Chatbots oder generativen KI-Tools gearbeitet haben, rücken nun autonome Systeme in den Fokus: KI-Agenten. Diese können Aufgaben eigenständig ausführen, Entscheidungen vorbereiten und ganze Workflows steuern. Damit verändern sie die Art, wie Automatisierung in Unternehmen umgesetzt wird. KI-Agenten übernehmen zunehmend komplexe Abläufe und agieren dabei wie digitale Teammitglieder innerhalb bestehender IT-Umgebungen. Für Entwicklerinnen und Entwickler bedeutet das eine neue Rolle: Statt jede Funktion selbst zu programmieren, orchestrieren sie Agenten, definieren Regeln und überwachen deren Verhalten. Trotz grosser Erwartungen steckt der produktive Einsatz vieler KI-Agenten noch in den Anfängen. Studien zeigen, dass zwar zahlreiche Unternehmen mit entsprechenden Anwendungen experimentieren, aber nur ein kleiner Teil der Projekte tatsächlich Produktionsreife erreicht. Die Gründe sind vielfältig: komplexe Integrationen, fehlende Governance-Strukturen und unklare Verantwortlichkeiten. Vor allem aber fehlt vielen Organisationen noch das notwendige Vertrauen in autonome Systeme.

ISO 27001 – warum wir uns bei GENESIS messen lassen

ISO 27001 ist für GENESIS kein abstrakter Standard, sondern ein bewusst gesetzter Massstab. Als Cybersecurity-Dienstleister arbeiten wir täglich mit sensiblen Informationen – unseren eigenen wie mit Daten unserer Kunden und Partnerunternehmen. Vertrauen ist keine Selbstverständlichkeit. Es entsteht dort, wo Prozesse nachvollziehbar sind und Sicherheit nicht nur behauptet, sondern überprüfbar ist. Aus diesem Grund haben wir uns entschieden, unsere Informationssicherheit nach ISO/IEC 27001 zertifizieren zu lassen. Die ISO 27001 ist ein international anerkannter Standard für Informationssicherheits-Managementsysteme. Sie beschreibt nicht einzelne technische Schutzmassnahmen, sondern einen strukturierten Rahmen, mit dem Unternehmen den Umgang mit Informationen systematisch organisieren. Im Zentrum steht die Frage, wie Vertraulichkeit, Integrität und Verfügbarkeit von Informationen dauerhaft sichergestellt werden können. Nicht nur punktuell, sondern als fortlaufender Prozess. Eine Zertifizierung nach ISO 27001 bestätigt, dass ein Unternehmen Informationssicherheit bewusst steuert. Dazu gehören klare Verantwortlichkeiten, dokumentierte Prozesse, eine strukturierte Bewertung von Risiken sowie regelmässige interne und externe Überprüfungen. Zertifiziert wird dabei nicht ein Produkt oder ein einzelnes Sicherheitstool, sondern das Zusammenspiel aus Organisation, Abläufen und Kontrolle.

On-Premise oder Cloud: Beide Umgebungen erfordern gezielte Penetrationstests

Hartnäckig hält sich die Annahme, Cloud-Infrastrukturen seien per se sicherer als klassische On-Premise-Umgebungen. Tatsächlich gilt: Sowohl lokale als auch cloudbasierte Infrastrukturen müssen gezielt und regelmässig auf Sicherheitslücken geprüft werden, allerdings mit unterschiedlichen Schwerpunkten. Architektur als Ausgangspunkt der Sicherheitsprüfung Ein fundiertes Verständnis der Systemarchitektur ist die Grundlage jeder wirksamen Sicherheitsstrategie. On-Premise-Umgebungen bieten volle Kontrolle über Hardware, Software und Konfigurationen. Das ermöglicht passgenaue Sicherheitsmassnahmen und erleichtert die Einhaltung regulatorischer Vorgaben – insbesondere bei sensiblen Daten. Gleichzeitig bleibt die Verantwortung vollständig beim Unternehmen: Wartung, Patching und physische Sicherheit müssen konsequent umgesetzt werden. Cloud-Umgebungen punkten durch Skalierbarkeit und flexible Zugänglichkeit. Diese Vorteile erhöhen jedoch auch die Komplexität. Fehlkonfigurationen, unzureichende Zugriffskontrollen oder ungeschützte Schnittstellen zählen zu den häufigsten Risiken. Cloud-native Sicherheitsmechanismen und regelmässige Prüfungen öffentlich erreichbarer Ressourcen sind daher unverzichtbar. Unterschiedliche Umgebungen, unterschiedliche Testansätze Auch bei Penetrationstests unterscheiden sich die Anforderungen deutlich. In On-Premise-Umgebungen stehen neben klassischen Netzwerk- und Protokollschwachstellen insbesondere physische Risiken und Insider-Bedrohungen im Fokus. Regelmässige Updates, der Rückbau veralteter Systeme sowie Awareness-Trainings für Mitarbeitende sind zentrale Schutzfaktoren.

IT-Security-Trends 2026: Was auf Unternehmen in der Schweiz und DACH zukommt

Ransomware bleibt ein Dauerbrenner, KI mischt Angriffe wie Verteidigung auf und neue Vorgaben wie NIS2 erhöhen den Druck: 2026 wird für IT- und Security-Teams eine Herausforderung. Studien von ENISA, Gartner & Co. zeigen, wohin die Reise geht und was das für Unternehmen in der Schweiz und im DACH-Raum bedeutet. Was bedeuten die aktuellen Entwicklungen konkret für Ihre Security-Strategie, Ihre Projekte und Ihren Alltag? Die neue Angriffsrealität 2026: Mehr KI, mehr Erpressung, mehr Tempo Aktuelle Reports zeigen, dass Ransomware, Datenklau und Social Engineering weiterhin zu den häufigsten Vorfällen in Europa gehören. E-Mail bleibt der wichtigste Angriffsvektor, mit deutlich steigenden Zahlen bei Malware und Phishing. Neu ist nicht die Art der Angriffe, sondern Qualität und Geschwindigkeit: Angreifer nutzen KI, um Mails besser zu formulieren, Stimmen und Gesichter zu fälschen oder automatisch Passwörter zu knacken. Gleichzeitig verkürzt sich die Zeit von Erstzugang bis Verschlüsselung deutlich. Was heisst das praktisch für Unternehmen? E-Mail-Security und MFA sind Pflicht, nicht Kür – inklusive Schutz für Microsoft 365 und andere. Klassische Awareness-Kampagnen reichen nicht mehr: Mitarbeitende müssen Deepfakes, KI-Phishing und CEO-Fraud erkennen. Notfallpläne (Incident Response, Ransomware-Playbooks, Kommunikationsleitlinien) sollten konkret und getestet sein. Zero Trust, Identity und OT: Wer darf was und wie lange? Zero Trust bleibt auch 2026 auf jeder Trendliste. Der Fokus verschiebt sich allerdings: Identity First Security: Zugriffe basieren auf Identität, Kontext und Risiko, nicht auf IP-Adressen und Netzsegmenten. Privileged Access Management (PAM) stellt sicher, dass Adminrechte nur zeitlich begrenzt und nachvollziehbar vergeben werden. OT-Umgebungen (Produktionsanlagen, Gebäudeleittechnik, Energie) rücken stärker in den Fokus, weil Angriffe vermehrt dort ansetzen. Was heisst das praktisch für Unternehmen?

Mit DDI kontrollieren Sie Ihre hybride Multicloud-Umgebung

Unternehmen setzen zunehmend auf hybride Multicloud-Strukturen – doch viele kämpfen mit isolierten Tools, fragmentierten IP-Adressräumen und inkonsistenten Sicherheitsrichtlinien. Mit wachsender Komplexität steigt das Risiko für Fehlkonfigurationen und Sicherheitslücken. Der Schlüssel zu mehr Kontrolle und Effizienz liegt in der Vereinheitlichung des Netzwerkmanagements – und hier spielt DDI (DNS, DHCP, IPAM) eine zentrale Rolle. Zu diesen Ergebnissen kommt der EMA-Bericht «Enterprise Strategies for Hybrid, Multi-Cloud Networks». Laut EMA nutzen über 90 % der Unternehmen mehr als einen Cloud-Anbieter. Das schafft Flexibilität, aber auch neue Herausforderungen: Leistungsprobleme, IP-Konflikte und inkonsistente Sicherheitsrichtlinien gehören zu den häufigsten Stolpersteinen. Hinzu kommt die Abhängigkeit von proprietären Cloud-Tools, die Transparenz und zentrale Steuerung erschweren. Parallel treiben Digitalisierung, IoT und KI den Ausbau hybrider Architekturen weiter voran. Workloads werden verteilt, Datenverarbeitung erfolgt näher an der Quelle und der Bedarf an konsistenter Netzwerksteuerung wächst. Warum DDI entscheidend ist In zunehmend verteilten Infrastrukturen bietet DDI den notwendigen Ordnungsrahmen: Zentralisierte Verwaltung: Einheitliche Kontrolle von IP-Adressräumen, DNS-Diensten und Sicherheitsrichtlinien reduziert Fehlerquellen und stärkt die Konsistenz. Network Source of Truth (NSoT): Eine zentrale Datenbasis für netzwerkbezogene Informationen schafft Transparenz, beschleunigt Prozesse und verbessert die Automatisierung.

Zero Trust und Privileged Access Management: Mehr Sicherheit für OT und IT

Operative Technologie (OT) galt lange als sicher, weil sie isoliert lief. Doch diese Zeiten sind vorbei. Vernetzung, Fernzugriffe und Cloud-Analysen machen heute alle Unternehmenssysteme angreifbar – von Produktionsanlagen über Finanz- und Verwaltungsprozesse bis hin zu kundenorientierten Services – und oft fehlt es an Schutzmechanismen, die in der IT schon Standard sind. Warum OT besonders verwundbar ist Was früher isoliert war, ist heute vernetzt. Ob Maschinen, Datenbanken oder ganze Geschäftsprozesse – Fernzugriffe und Cloud-Services schaffen Effizienz, öffnen aber auch neue Türen für Angreifende. Viele Systeme, die heute noch im Einsatz sind, wurden ursprünglich für Stabilität und eine lange Lebensdauer entwickelt, nicht aber für Cybersicherheit. Updates und Patches lassen sich in solchen Umgebungen nur schwer umsetzen, weil Ausfälle unbedingt vermieden werden müssen. Gleichzeitig setzen viele Unternehmen ihre Prioritäten nach wie vor auf Verfügbarkeit und Effizienz. Immer noch ist das Bewusstsein für Cyberrisiken in der Praxis oft gering ausgeprägt – insbesondere dort, wo Mitarbeitende nicht täglich mit IT-Sicherheit zu tun haben. All das führt dazu, dass Angreifende mit gestohlenen Zugangsdaten oder übermässigen Berechtigungen leichtes Spiel haben, um sich unbemerkt durch Systeme zu bewegen und Schaden anzurichten.

Einmal ist keinmal: Warum ein jährlicher Pentest nicht mehr genügt

Viele Unternehmen führen Penetrationstests in festen Intervallen durch: laut dem Kaseya Cybersecurity Survey Report 2024 29 Prozent zweimal jährlich, gefolgt von drei- bis viermal jährlich (23 Prozent). Jedes fünfte Unternehmen führt sogar nur einmal jährlich einen Pentest durch. Diese Prüfungen erfüllen zwar Compliance-Anforderungen und geben einen Überblick über den aktuellen Stand. Doch sie reichen nicht aus, um die eigene Infrastruktur wirksam zu schützen. Denn Pentests sind nur eine Momentaufnahme. Ein einmal durchgeführter Test bildet lediglich den Zustand zum Zeitpunkt der Durchführung ab. In dynamischen IT-Umgebungen ändern sich Systeme, Anwendungen und Konfigurationen jedoch laufend. Jede neue Software-Version, jede Cloud-Anpassung oder jede Integration externer Dienste kann neue Schwachstellen schaffen. Angreifende nutzen diese Gelegenheiten, ohne auf den nächsten geplanten Test zu warten. Automatisierte Penetrationstests: Flexibel und effizient Automatisierte Penetrationstests ermöglichen es, Tests jederzeit und ohne grossen organisatorischen Aufwand durchzuführen. Ergebnisse liegen innerhalb weniger Tage vor, sodass Schwachstellen frühzeitig erkannt und behoben werden können. Die Vorteile: Schnelligkeit – neue Risiken werden zeitnah sichtbar. Regelmässigkeit – Tests können monatlich oder nach Bedarf angesetzt werden. Kosteneffizienz – Automatisierung macht häufigere Tests wirtschaftlich. Compliance – Vorgaben von Aufsichtsbehörden und Versicherungen werden zuverlässig erfüllt. Mit External Attack Surface Management (EASM) den Überblick behalten Viele Unternehmen wissen gar nicht genau, welche Systeme und Dienste öffentlich im Internet erreichbar sind und damit potenziell von Hacker:innen ausgenutzt werden können. Hier setzt External Attack Surface Management (EASM) an. Es erfasst alle extern sichtbaren Systeme, Anwendungen und Dienste eines Unternehmens – auch solche, die oft übersehen werden (zum Beispiel veraltete Testserver, vergessene Domains oder Schatten-IT). Diese Angriffsfläche wird kontinuierlich überwacht, sodass neue Risiken sofort erkannt werden. Zusätzlich prüft EASM, ob sensible Informationen wie Zugangsdaten im Darknet auftauchen. So behalten Unternehmen jederzeit den Überblick darüber, welche Angriffsflächen tatsächlich existieren und wie sich deren Risiko entwickelt.

Continuous Threat Exposure Management mit Pentera (CTEM)

Es gibt heute für viele Sicherheitslücken Patches oder Workarounds, dennoch werden Unternehmen immer wieder Opfer von Cyberattacken. Entscheidend ist der gezielte Umgang mit den gefährlichsten Schwachstellen und somit eine Priorisierung, damit Unternehmen ihre Risiken senken und ihre Abwehr nachhaltig stärken können. Entscheidend aus unserer Sicht ist die Kombination mit geschäftsrelevanten Kriterien, um echte Risiken zu erkennen. Denn nur ein kleiner Bruchteil aller Schwachstellen (2–5 %) ist tatsächlich gefährlich. Empfohlene Massnahmen: Fokus auf Geschäftsrisiken: Priorisierung der Schwachstellen, die kritische Assets gefährden. Automatisierung: Zur Effizienzsteigerung und Entlastung von Sicherheitsteams. Orchestrierung: Um die Behebung von Schwachstellen strukturiert und zeiteffizient umzusetzen. Exploit-Simulationen: Zur realitätsnahen Bewertung von Schwachstellen im Kontext eines echten Angriffs. GENESIS SWISS TEAM AG setzt auf Pentera, um Sicherheitslücken realitätsnah zu bewerten, Prioritäten richtig zu setzen und die Wirksamkeit von Massnahmen zu validieren. Warum CTEM mit Pentera die beste Lösung ist:

Effizientes Schwachstellenmanagement: Nicht jede Sicherheitslücke muss geschlossen werden

Obwohl es heute für nahezu jede Sicherheitslücke Patches oder Workarounds gibt, werden Unternehmer immer wieder Opfer von Cyberattacken. Ein lückenloses Patch-Management ist in der Praxis kaum realisierbar und auch nicht immer sinnvoll. Entscheidend ist der gezielte Umgang mit den gefährlichsten Schwachstellen. So können Unternehmen ihre Risiken senken und ihre Abwehr nachhaltig stärken. Angesichts der schieren Menge an Schwachstellen ist eine gezielte Priorisierung entscheidend. Zwar liefern viele Anbieter Bewertungssysteme zur Unterstützung, doch bleibt es herausfordernd, jene Schwachstellen zu identifizieren, deren Ausnutzung konkrete geschäftliche Auswirkungen haben könnte. Priorisierung ist ein proaktiver Sicherheitsansatz, bei dem nicht automatisch die Schwachstellen mit dem höchsten CVSS-Score im Fokus stehen. Es geht vielmehr darum, jene Lücken zu identifizieren, die das grösste Risiko für das eigene Unternehmen darstellen. So können IT-Teams ihre Ressourcen gezielt einsetzen und die Sicherheitslage effektiv verbessern. Strategien zur Priorisierung von Schwachstellen Beim risikobasierten Ansatz werden Schwachstellen anhand ihres potenziellen Schadens und der Wahrscheinlichkeit ihrer Ausnutzung bewertet. Nicht jede Schwachstelle ist automatisch gefährlich – entscheidend ist, ob und wie Angreifende sie tatsächlich ausnutzen könnten. In die Bewertung fliessen auch die Kritikalität der betroffenen Assets sowie die Motivation möglicher Hacker:innen ein. Bei der asset-zentrierten Priorisierung stehen Schwachstellen in unmittelbarer Nähe zu geschäftskritischen Systemen und Daten, wie beispielsweise Finanzanwendungen oder Kundendatenbanken, im Fokus, deren Ausnutzung wesentliche Auswirkungen auf die Vertraulichkeit, Integrität oder Verfügbarkeit dieser Ressourcen hätte. Durch das Einbinden aktueller Threat-Intelligence-Daten lassen sich Schwachstellen im Gesamtkontext bewerten.