Erläuterung: DNS-Leaks verhindern

Software-Patches als Notwendigkeit I WatchGuard Blog

Software-Updates sind über sämtliche Betriebssysteme hinweg allgegenwärtig. Sie stellen nicht nur neue Funktionen bereit, sondern können zudem große Cyberangriffe verhindern. Schließlich werden im Rahmen der Aktualisierungen oft auch Systemschwachstellen behoben. Die Priorisierung und Durchführung dieser notwendigen Maßnahme ist für viele Nutzer jedoch teilweise lästig und unbequem, da Computer, Server, Tablets, Smartphones und weitere Geräte im Zuge der Installation neu gestartet werden müssen. Das sorgt während der regulären Bürozeiten regelmäßig für teilweise längere Arbeitsunterbrechungen. Daher werden Aktualisierungen oft aufgeschoben und empfohlene Patches, die häufige Sicherheitsprobleme wie Datendiebstahl und Identitätsverlust verhindern könnten, ignoriert.

Nach einer Erhebung von ZD Net-Medien lassen sich 61 Prozent der bestehenden Schwachstellen in Unternehmensnetzwerken auf das Jahr 2016 oder noch früher zurückdatieren, obwohl Patches dafür bereits seit fünf Jahren oder länger verfügbar sind. Einige der Schwachstellen, die nach wie vor beispielsweise für den Zugang zu Netzwerken ausgenutzt werden, sind sogar mehr als ein Jahrzehnt alt.

Wie besorgniserregend sind Software-Schwachstellen?

Wer das Einspielen von Updates länger vermieden hat und damit bislang ungeschoren davonkam, hat vielleicht ein falsches Sicherheitsgefühl entwickelt und denkt, dass diese generell nicht notwendig sind. Das ist ein Trugschluss. Der Cyberangriff auf das Internationale Komitee vom Roten Kreuz (IKRK) im November 2021 beweist, dass solche Zuversicht oftmals fehl am Platze ist. Bei dem Vorfall verschafften sich Hacker Zugang zu den Systemen des IKRK, indem sie eine bekannte, aber nicht gepatchte kritische Schwachstelle in einem Single-Sign-On-Tool ausnutzten, das von Zoho entwickelt wurde – einer Firma, die webbasierte Lösungen für die Unternehmensverwaltung anbietet. Während des Angriffs wurden die Daten von mehr als 515.000 „hochgradig gefährdeten“ Personen kompromittiert.

Diesbezüglich zeigen die von IBM im Jahresbericht X-Force Threat Intelligence Index 2022 vorgelegten Daten, dass 34 Prozent der gemeldeten Cyberangriffe im Jahr 2021 auf die Ausnutzung von Schwachstellen zurückzuführen sind. Das bedeutet im Vergleich zu 2020 einen Anstieg der Vorfälle jener Art um 33 Prozent. Die Zahlen verdeutlichen die enorme Bedeutung dieses Angriffsvektors als Einfallstor für Hacker. Ebenso wird in dem Bericht die Zunahme der Zahl der Schwachstellen an sich hervorgehoben. Jene haben mit 19.649 nach fünf Jahren des konsequenten Wachstums einen neuen Rekordwert erreicht. Noch besorgniserregender ist jedoch, dass auch die Zahl der Exploits, d. h. der Tools, die von Cyberkriminellen zur Ausnutzung einer Schwachstelle verwendet werden, stetig zunimmt. Der Internet Security Report von WatchGuard, in dem das WatchGuard Threat Lab regelmäßig neuen Malware-Varianten und Angriffsmustern auf den Grund geht, gibt an, dass das Volumen der Netzwerkangriffe mit rund 5,7 Millionen Netzwerk-Exploits im vierten Quartal 2021 ein Vierjahreshoch erreicht hat. Das bedeutet, dass den Cyberkriminellen immer mehr Möglichkeiten zur Verfügung stehen, um ihre Pläne zu verwirklichen.

Software-Updates: der erste Schritt zur Cybersicherheit

Neue Schwachstellen tauchen ständig auf und laut der U.S. Cybersecurity and Infrastructure Security Agency (CISA) besteht die beste Verteidigung dagegen darin, sämtliche Software auf dem neuesten Stand zu halten. Sie empfiehlt außerdem eine Reihe von Maßnahmen, um sicherzustellen, dass die Systeme stets auf Höhe der Zeit sind:

Aktivieren Sie, wann immer möglich, automatische Software-Updates. Dadurch wird sichergestellt, dass Aktualisierungen so schnell wie möglich installiert werden. Vermeiden Sie die Verwendung veralteter (End-of-Life, EOL) und nicht unterstützter Software. Besuchen Sie die Websites der Anbieter direkt und klicken Sie nicht auf Werbebanner oder E-Mail-Links. Führen Sie keine Software-Updates außerhalb vertrauenswürdiger Netzwerke durch.

Sicherheitslücken am Endpunkt schließen

Es liegt auf der Hand, dass Software-Patches und -Updates im Rahmen der Cybersicherheitsstrategie eines Unternehmens von entscheidender Bedeutung sind. Zusätzlich zu den von der CISA empfohlenen Praktiken stehen Unternehmen geradezu in der Pflicht, bekannte Schwachstellen zu überwachen und sie zu entschärfen. Denn diese werden immer wieder ausgenutzt, um sich Zugang zu internen Netzwerken zu verschaffen. Folglich stellen Software-Schwachstellen ein größeres und greifbareres Risiko dar als andere Bedrohungsarten.

Es gibt eine Reihe von Tools, die dabei helfen, Systeme auf dem neuesten Stand zu halten und durch verfügbare Patches zu schützen. Das stellt einen großen Vorteil im Kampf gegen Cyberkriminelle dar. Mithilfe von Datenbanken, die den Abgleich der auf den Endpunkten eines Netzwerks installierten Patches ermöglichen, lassen sich Systeme besser absichern und Malware-Angriffe auf anfällige Workstations und Server verhindern.

Anomalieerkennung: Leitfaden zur Verhinderung von Netzwerkangriffen

Daten sind ein unverzichtbarer Bestandteil von Unternehmen und Organisationen und nur dann wertvoll, wenn sie richtig strukturiert und effizient verwaltet werden.

Laut einer Statistik 95% der Unternehmen heute finden die Verwaltung und Strukturierung unstrukturierter Daten ein Problem.

Das ist wo Data Mining kommt ins Spiel. Es ist der Prozess des Entdeckens, Analysierens und Extrahierens aussagekräftiger Muster und wertvoller Informationen aus großen Mengen unstrukturierter Daten.

Unternehmen verwenden Software, um Muster in großen Datenmengen zu identifizieren, um mehr über ihre Kunden und ihre Zielgruppe zu erfahren und Geschäfts- und Marketingstrategien zu entwickeln, um den Umsatz zu steigern und Kosten zu senken.

Neben diesem Vorteil sind Betrugs- und Anomalieerkennung die wichtigsten Anwendungen von Data Mining.

In diesem Artikel wird die Anomalieerkennung erläutert und weiter untersucht, wie sie zur Vorbeugung beitragen kann Datenverstöße und Netzwerkeinbrüche, um die Datensicherheit zu gewährleisten.

What is Anomaly Detection and Its Types?

Während es beim Data Mining darum geht, Muster, Korrelationen und Trends zu finden, die miteinander verknüpft sind, ist es eine großartige Möglichkeit, Anomalien oder Ausreißerdatenpunkte innerhalb des Netzwerks zu finden.

Anomalien im Data Mining sind Datenpunkte, die sich von anderen Datenpunkten im Datensatz unterscheiden und vom normalen Verhaltensmuster des Datensatzes abweichen.

Anomalien können in verschiedene Typen und Kategorien eingeteilt werden, darunter:

Änderungen bei Veranstaltungen: Beziehen sich auf plötzliche oder systematische Änderungen gegenüber dem vorherigen normalen Verhalten.

Beziehen sich auf plötzliche oder systematische Änderungen gegenüber dem vorherigen normalen Verhalten. Ausreißer: Kleine anomale Muster, die bei der Datenerfassung auf unsystematische Weise auftreten. Diese können weiter in globale, kontextbezogene und kollektive Ausreißer eingeteilt werden.

Kleine anomale Muster, die bei der Datenerfassung auf unsystematische Weise auftreten. Diese können weiter in globale, kontextbezogene und kollektive Ausreißer eingeteilt werden. Driften: Allmähliche, ungerichtete und langfristige Änderung des Datensatzes.

Daher ist die Anomalieerkennung eine Datenverarbeitungstechnik, die sehr nützlich ist, um betrügerische Transaktionen zu erkennen, Fallstudien mit hochklassigem Ungleichgewicht zu behandeln und Krankheiten zu erkennen, um robuste datenwissenschaftliche Modelle zu erstellen.

Beispielsweise möchte ein Unternehmen möglicherweise seinen Cashflow analysieren, um anormale oder wiederkehrende Transaktionen auf ein unbekanntes Bankkonto zu finden, um Betrug aufzudecken und weitere Untersuchungen durchzuführen.

Benefits of Anomaly Detection

Die Erkennung von Anomalien im Benutzerverhalten trägt dazu bei, Sicherheitssysteme zu stärken und sie präziser und genauer zu machen.

Es analysiert und interpretiert verschiedene Informationen, die Sicherheitssysteme bereitstellen, um Bedrohungen und potenzielle Risiken innerhalb des Netzwerks zu identifizieren.

Hier sind die Vorteile der Anomalieerkennung für Unternehmen:

Echtzeit-Erkennung von Cybersicherheitsbedrohungen und Datenschutzverletzungen als künstliche Intelligenz (KI)-Algorithmen scannen Ihre Daten ständig, um ungewöhnliches Verhalten zu finden.

als künstliche Intelligenz (KI)-Algorithmen scannen Ihre Daten ständig, um ungewöhnliches Verhalten zu finden. Es macht schnellere Verfolgung anomaler Aktivitäten und Muster und einfacher als die manuelle Erkennung von Anomalien, wodurch der Arbeits- und Zeitaufwand für die Behebung von Bedrohungen reduziert wird.

und einfacher als die manuelle Erkennung von Anomalien, wodurch der Arbeits- und Zeitaufwand für die Behebung von Bedrohungen reduziert wird. Minimiert Betriebsrisiken indem Betriebsfehler wie plötzliche Leistungseinbrüche erkannt werden, bevor sie überhaupt auftreten.

indem Betriebsfehler wie plötzliche Leistungseinbrüche erkannt werden, bevor sie überhaupt auftreten. It hilft, größere geschäftliche Schäden zu beseitigen Durch die schnelle Erkennung von Anomalien, denn ohne ein Anomalie-Erkennungssystem können Unternehmen Wochen und Monate brauchen, um potenzielle Bedrohungen zu identifizieren.

Daher ist die Erkennung von Anomalien ein großer Vorteil für Unternehmen, die umfangreiche Kunden- und Geschäftsdatensätze speichern, um Wachstumschancen zu finden und Sicherheitsbedrohungen und betriebliche Engpässe zu beseitigen.

Techniques of Anomaly Detection

Die Anomalieerkennung verwendet mehrere Verfahren und Algorithmen für maschinelles Lernen (ML). um Daten zu überwachen und Bedrohungen zu erkennen.

Hier sind die wichtigsten Techniken zur Erkennung von Anomalien:

# 1. Techniken des maschinellen Lernens

Techniken des maschinellen Lernens verwenden ML-Algorithmen, um Daten zu analysieren und Anomalien zu erkennen. Die verschiedenen Arten von Algorithmen für maschinelles Lernen zur Erkennung von Anomalien umfassen:

Clustering-Algorithmen

Klassifizierungsalgorithmen

Tiefes Lernen Algorithmen

Zu den häufig verwendeten ML-Techniken zur Erkennung von Anomalien und Bedrohungen gehören: Support-Vektor-Maschinen (SVMs), k-Means-Clustering und Autoencoder.

# 2. Statistische Methoden

Statistische Techniken verwenden statistische Modelle, um ungewöhnliche Muster (wie ungewöhnliche Schwankungen in der Leistung einer bestimmten Maschine) in den Daten zu erkennen, um Werte zu erkennen, die außerhalb des Bereichs der erwarteten Werte liegen.

Zu den gängigen Techniken zur statistischen Anomalieerkennung gehören Hypothesentests, IQR, Z-Score, modifizierter Z-Score, Dichteschätzung, Boxplot, Extremwertanalyse und Histogramm.

# 3. Data Mining-Techniken

Verwendung von Data-Mining-Techniken Datenklassifizierung und Clustering-Techniken, um Anomalien innerhalb des Datensatzes zu finden. Einige gängige Data-Mining-Anomalietechniken umfassen spektrales Clustering, dichtebasiertes Clustering und Hauptkomponentenanalyse.

Clustering-Data-Mining-Algorithmen werden verwendet, um verschiedene Datenpunkte basierend auf ihrer Ähnlichkeit zu Clustern zu gruppieren, um Datenpunkte und Anomalien zu finden, die außerhalb dieser Cluster liegen.

Andererseits ordnen Klassifizierungsalgorithmen Datenpunkte bestimmten vordefinierten Klassen zu und erkennen Datenpunkte, die nicht zu diesen Klassen gehören.

# 4. Regelbasierte Techniken

Wie der Name schon sagt, verwenden regelbasierte Techniken zur Erkennung von Anomalien eine Reihe vordefinierter Regeln, um Anomalien in den Daten zu finden.

Diese Techniken sind vergleichsweise leichter und einfacher einzurichten, können jedoch unflexibel sein und sind möglicherweise nicht effizient bei der Anpassung an sich änderndes Datenverhalten und -muster.

Beispielsweise können Sie ein regelbasiertes System einfach programmieren, um Transaktionen, die einen bestimmten Dollarbetrag überschreiten, als betrügerisch zu kennzeichnen.

# 5. Domänenspezifische Techniken

Sie können domänenspezifische Techniken verwenden, um Anomalien in bestimmten Datensystemen zu erkennen. Während sie jedoch bei der Erkennung von Anomalien in bestimmten Domänen hocheffizient sein können, können sie in anderen Domänen außerhalb der angegebenen weniger effizient sein.

Mithilfe domänenspezifischer Techniken können Sie beispielsweise Techniken entwerfen, die speziell darauf abzielen, Anomalien in Finanztransaktionen zu finden. Sie funktionieren jedoch möglicherweise nicht, um Anomalien oder Leistungseinbußen in einer Maschine zu finden.

Need For Machine Learning For Anomaly Detection

Maschinelles Lernen ist sehr wichtig und äußerst nützlich bei der Erkennung von Anomalien.

Heutzutage müssen die meisten Unternehmen und Organisationen, die eine Ausreißererkennung benötigen, mit riesigen Datenmengen umgehen, von Text, Kundeninformationen und Transaktionen bis hin zu Mediendateien wie Bildern und Videoinhalten.

Es ist so gut wie unmöglich, alle Banktransaktionen und Daten, die jede Sekunde manuell generiert werden, durchzugehen, um aussagekräftige Erkenntnisse zu gewinnen. Darüber hinaus stehen die meisten Unternehmen vor Herausforderungen und großen Schwierigkeiten bei der Strukturierung unstrukturierter Daten und der sinnvollen Anordnung der Daten für die Datenanalyse.

Hier spielen Tools und Techniken wie maschinelles Lernen (ML) eine große Rolle beim Sammeln, Bereinigen, Strukturieren, Ordnen, Analysieren und Speichern riesiger Mengen unstrukturierter Daten.

Techniken und Algorithmen des maschinellen Lernens verarbeiten große Datensätze und bieten die Flexibilität, verschiedene Techniken und Algorithmen zu verwenden und zu kombinieren, um die besten Ergebnisse zu erzielen.

Darüber hinaus trägt maschinelles Lernen auch dazu bei, Anomalieerkennungsprozesse für reale Anwendungen zu rationalisieren und wertvolle Ressourcen zu sparen.

Hier sind einige weitere Vorteile und die Bedeutung des maschinellen Lernens bei der Erkennung von Anomalien:

Es erleichtert die Erkennung von Skalierungsanomalien durch die Automatisierung der Erkennung von Mustern und Anomalien, ohne dass eine explizite Programmierung erforderlich ist.

durch die Automatisierung der Erkennung von Mustern und Anomalien, ohne dass eine explizite Programmierung erforderlich ist. Algorithmen für maschinelles Lernen sind sehr anpassungsfähig an sich ändernde Datensatzmuster, wodurch sie hocheffizient und robust im Laufe der Zeit werden.

an sich ändernde Datensatzmuster, wodurch sie hocheffizient und robust im Laufe der Zeit werden. Bewältigt problemlos große und komplexe Datensätze, die Anomalieerkennung trotz der Komplexität des Datensatzes effizient zu machen.

die Anomalieerkennung trotz der Komplexität des Datensatzes effizient zu machen. Stellt die frühzeitige Identifizierung und Erkennung von Anomalien sicher indem Anomalien sofort erkannt werden, was Zeit und Ressourcen spart.

indem Anomalien sofort erkannt werden, was Zeit und Ressourcen spart. Auf maschinellem Lernen basierende Anomalieerkennungssysteme helfen dabei höhere Genauigkeit bei der Anomalieerkennung im Vergleich zu herkömmlichen Methoden.

Somit hilft die Anomalieerkennung gepaart mit maschinellem Lernen, Anomalien schneller und früher zu erkennen, um Sicherheitsbedrohungen und böswillige Verstöße zu verhindern.

Machine Learning Algorithms For Anomaly Detection

Sie können Anomalien und Ausreißer in Daten mit Hilfe verschiedener Data-Mining-Algorithmen zum Klassifizieren, Clustern oder Lernen von Assoziationsregeln erkennen.

Typischerweise werden diese Data-Mining-Algorithmen in zwei verschiedene Kategorien eingeteilt:überwachte und unüberwachte Lernalgorithmen.

Überwachtes Lernen

Überwachtes Lernen ist eine gängige Art von Lernalgorithmen, die aus Algorithmen wie Support Vector Machines, logistischer und linearer Regression und Mehrklassenklassifizierung besteht. Dieser Algorithmustyp wird mit gekennzeichneten Daten trainiert, was bedeutet, dass sein Trainingsdatensatz sowohl normale Eingabedaten als auch entsprechende korrekte Ausgaben oder anomale Beispiele enthält, um ein Vorhersagemodell zu erstellen.

Sein Ziel ist es daher, Ausgabevorhersagen für ungesehene und neue Daten basierend auf den Mustern des Trainingsdatensatzes zu treffen. Die Anwendungen von überwachten Lernalgorithmen umfassen Bild- und Spracherkennung, prädiktive Modellierung und Verarbeitung natürlicher Sprache (NLP).

Unbeaufsichtigtes Lernen

Unbeaufsichtigtes Lernen wird nicht mit gekennzeichneten Daten trainiert. Stattdessen entdeckt es komplizierte Prozesse und zugrunde liegende Datenstrukturen, ohne dem Trainingsalgorithmus eine Anleitung zu geben und anstatt spezifische Vorhersagen zu treffen.

Zu den Anwendungen unüberwachter Lernalgorithmen gehören Anomalieerkennung, Dichteschätzung und Datenkomprimierung.

Sehen wir uns nun einige beliebte Algorithmen zur Erkennung von Anomalien an, die auf maschinellem Lernen basieren.

Lokaler Ausreißerfaktor (LOF)

Local Outlier Factor oder LOF ist ein Anomalieerkennungsalgorithmus, der die lokale Datendichte berücksichtigt, um zu bestimmen, ob ein Datenpunkt eine Anomalie ist.

Es vergleicht die lokale Dichte eines Elements mit der lokalen Dichte seiner Nachbarn, um Bereiche mit ähnlicher Dichte und Elemente mit vergleichsweise geringerer Dichte als ihre Nachbarn zu analysieren – die nichts anderes als Anomalien oder Ausreißer sind.

Vereinfacht ausgedrückt unterscheidet sich also die Dichte um einen Ausreißer oder ein anomales Element herum von der Dichte um seine Nachbarn herum. Daher wird dieser Algorithmus auch als dichtebasierter Ausreißererkennungsalgorithmus bezeichnet.

K-nächster Nachbar (K-NN)

K-NN ist der einfachste Algorithmus zur Klassifizierung und überwachten Anomalieerkennung, der einfach zu implementieren ist, alle verfügbaren Beispiele und Daten speichert und die neuen Beispiele basierend auf den Ähnlichkeiten in den Entfernungsmetriken klassifiziert.

Dieser Klassifikationsalgorithmus wird auch als a bezeichnet fauler Lerner weil es nur die markierten Trainingsdaten speichert – ohne während des Trainingsprozesses etwas anderes zu tun.

Wenn der neue unbeschriftete Trainingsdatenpunkt ankommt, betrachtet der Algorithmus die K-nächstgelegenen oder die nächsten Trainingsdatenpunkte, um sie zum Klassifizieren und Bestimmen der Klasse des neuen unbeschrifteten Datenpunkts zu verwenden.

Der K-NN-Algorithmus verwendet die folgenden Erkennungsmethoden, um die nächstgelegenen Datenpunkte zu bestimmen:

Euklidische Entfernung um die Entfernung für kontinuierliche Daten zu messen.

um die Entfernung für kontinuierliche Daten zu messen. Hamming Abstand um die Nähe oder "Nähe" der beiden Textzeichenfolgen für diskrete Daten zu messen.

Stellen Sie sich beispielsweise vor, Ihre Trainingsdatensätze bestehen aus zwei Klassenbezeichnungen, A und B. Wenn ein neuer Datenpunkt eintrifft, berechnet der Algorithmus die Entfernung zwischen dem neuen Datenpunkt und jedem der Datenpunkte im Datensatz und wählt die Punkte aus die dem neuen Datenpunkt am nächsten liegen.

Angenommen, K = 3 und 2 von 3 Datenpunkten werden als A gekennzeichnet, dann wird der neue Datenpunkt als Klasse A gekennzeichnet.

Daher funktioniert der K-NN-Algorithmus am besten in dynamischen Umgebungen mit häufigen Datenaktualisierungsanforderungen.

Es ist ein beliebter Anomalieerkennungs- und Textmining-Algorithmus mit Anwendungen im Finanzwesen und in Unternehmen, um betrügerische Transaktionen zu erkennen und die Betrugserkennungsrate zu erhöhen.

Support-Vektor-Maschine (SVM)

Support Vector Machine ist ein überwachter, auf maschinellem Lernen basierender Anomalieerkennungsalgorithmus, der hauptsächlich bei Regressions- und Klassifizierungsproblemen verwendet wird.

Es verwendet a mehrdimensionale Hyperebene um Daten in zwei Gruppen zu unterteilen (neu und normal). Somit fungiert die Hyperebene als Entscheidungsgrenze, die die normalen Datenbeobachtungen und die neuen Daten trennt.

Der Abstand zwischen diesen beiden Datenpunkten wird als bezeichnet Ränder.

Da das Ziel darin besteht, den Abstand zwischen den beiden Punkten zu vergrößern, bestimmt SVM den besten oder den besten optimale Hyperebene mit maximalem Spielraum um sicherzustellen, dass der Abstand zwischen den beiden Klassen so groß wie möglich ist.

In Bezug auf die Anomalieerkennung berechnet SVM den Abstand der neuen Datenpunktbeobachtung von der Hyperebene, um sie zu klassifizieren.

Wenn die Spanne den festgelegten Schwellenwert überschreitet, wird die neue Beobachtung als Anomalie klassifiziert. Wenn die Spanne gleichzeitig unter dem Schwellenwert liegt, wird die Beobachtung als normal klassifiziert.

Somit sind die SVM-Algorithmen beim Umgang mit hochdimensionalen und komplexen Datensätzen hocheffizient.

Isolationswald

Isolation Forest ist ein unüberwachter maschinell lernender Anomalie-Erkennungsalgorithmus, der auf dem Konzept von a Random-Forest-Klassifikator.

Dieser Algorithmus verarbeitet zufällig unterabgetastete Daten im Datensatz in einer Baumstruktur basierend auf zufälligen Attributen. Es konstruiert mehrere Entscheidungsbäume, um Beobachtungen zu isolieren. Und es betrachtet eine bestimmte Beobachtung als Anomalie, wenn sie aufgrund ihrer Kontaminationsrate in weniger Bäumen isoliert ist.

Also vereinfacht gesagt der Isolation Forest Algorithmus teilt die Datenpunkte in verschiedene Entscheidungsbäume auf– Sicherstellen, dass jede Beobachtung von einer anderen isoliert wird.

Anomalien liegen in der Regel abseits des Datenpunkt-Clusters, was es einfacher macht, die Anomalien im Vergleich zu den normalen Datenpunkten zu identifizieren.

Algorithmen für isolierte Gesamtstrukturen können problemlos mit kategorialen und numerischen Daten umgehen. Infolgedessen sind sie schneller zu trainieren und hocheffizient bei der Erkennung von Anomalien in hochdimensionalen und großen Datensätzen.

Bereich zwischen den Quartilen

Interquartilbereich oder IQR ist gewöhnungsbedürftig statistische Variabilität oder statistische Streuung messen um anomale Punkte in den Datensätzen zu finden, indem indem man sie in Quartile einteilt.

Der Algorithmus sortiert die Daten in aufsteigender Reihenfolge und teilt die Menge in vier gleiche Teile. Die Werte, die diese Teile trennen, sind Q1, Q2 und Q3 – erstes, zweites und drittes Quartil.

Hier ist die Perzentilverteilung dieser Quartile:

Q1 bezeichnet das 25. Perzentil der Daten.

Q2 bezeichnet das 50. Perzentil der Daten.

Q3 bezeichnet das 75. Perzentil der Daten.

IQR ist die Differenz zwischen dem dritten (75.) und dem ersten (25.) Perzentil-Datensatz, der 50 % der Daten darstellt.

Die Verwendung von IQR zur Erkennung von Anomalien erfordert, dass Sie den IQR Ihres Datensatzes berechnen und die unteren und oberen Grenzen der Daten definieren, um Anomalien zu finden.

Untere Grenze: Q1 – 1.5 * IQR

Obergrenze: Q3 + 1.5 * IQR

Typischerweise werden Beobachtungen, die außerhalb dieser Grenzen liegen, als Anomalien betrachtet.

Der IQR-Algorithmus ist effektiv für Datensätze mit ungleichmäßig verteilten Daten und bei denen die Verteilung nicht gut verstanden wird.

Final Words

Cybersicherheitsrisiken und Datenschutzverletzungen scheinen in den kommenden Jahren nicht einzudämmen – und diese riskante Branche wird voraussichtlich im Jahr 2023 weiter wachsen, und allein die IoT-Cyberangriffe werden voraussichtlich weiter wachsen doppelt von 2025.

Darüber hinaus werden Cyberkriminalität globale Unternehmen und Organisationen schätzungsweise kosten $ 10.3 Billionen pro Jahr von 2025.

Aus diesem Grund wird der Bedarf an Anomalie-Erkennungstechniken immer häufiger und notwendiger, um Betrug zu erkennen und Netzwerkeindringlinge zu verhindern.

Dieser Artikel hilft Ihnen zu verstehen, was Anomalien beim Data Mining sind, welche Arten von Anomalien es gibt und wie Sie Netzwerkangriffe mithilfe von ML-basierten Anomalieerkennungstechniken verhindern können.

Als nächstes können Sie alles über die erkunden Konfusionsmatrix im maschinellen Lernen.

Erläuterung: DNS-Leaks verhindern

Erläuterung: DNS-Leaks verhindern

Der OVPN-Client verfügt über eine Funktion, die sicherstellt, dass keine DNS-Leaks entstehen. Der Client ändert die Einstellungen aller verfügbaren Netzwerkadapter auf Ihrem Gerät, sodass Ihr Computer die DNS-Server von OVPN verwendet, die so konfiguriert sind, dass sie keinerlei Informationen speichern.

Zusätzlich zur Änderung der DNS-Server überprüft der Client auch beständig jede Sekunde die DNS-Einstellungen, sodass diese während der Verbindung mit OVPN nicht geändert werden. Werden diese zu irgendeinem Zeitpunkt geändert, ändert der Client sie wieder zurück auf die korrekten und sicheren Einstellungen.

Diese Funktion hilft sowohl sicherzustellen, dass Sie nicht mit unsicheren DNS-Servern verbunden sind, als auch zu verhindern, dass Sie einem Netzwerkangriff ausgesetzt werden.

Sie können eine von drei Einstellungen auswählen, um unser Standard-DNS, unser Adblock-DNS oder benutzerdefinierte DNS zu verwenden. Bei benutzerdefinierten DNS-Servern können Sie manuell DNS-Server hinzufügen, die der Client verwenden soll.

Tracey is the Contributing Editor for Foodies100, Tots100, Hibs100 and Trips100. She also blogs at PackThePJs. Tracey writes mainly about family travel; from days out to road trips with her pet dogs, to cruises and long-haul tropical destinations. Her family consists of her husband Huw, a medical writer, Millie-Mae (14), Toby (12) and Izzy and Jack the spaniels