Grundprinzip für k nächste Nachbarn: Die nächsten Nachbarn klassifizieren Testobjekte basierend auf der nächstgelegenen oder ähnlichsten Trainingsprobe im Feature-Space und das Objekt wird mit einer Mehrheitsstimme seiner Nachbarn klassifiziert (Abb. 1). Der nächste Nachbar wird durch die Metrikfunktion bestimmt. Um diesen Nachteil zu überwinden, gibt diese Version des nächsten Nachbarn Indikator größere Gewichte zu den neuesten Preisen bei der Suche nach dem nächsten Muster in der Vergangenheit. Es verwendet einen gewichteten Korrelationskoeffizienten, dessen Gewicht linear von neueren zu älteren Preisen innerhalb eines Preismusters abfällt. Bei hochdimensionalen Datasets wird das Dataset in Lagerplätze vorverarbeitet, sodass sie im Raum nahe beieinander liegen und wahrscheinlich demselben Lagerplatz zugewiesen werden. Die vorverarbeitung durchgeführt erleichtert die schnelle Konvergenz zu einem Punkt ungefähr nächsten Nachbarn, nur ein Punkt nähern sich nächsten Nachbarn und nicht seine nächsten Nachbarn (Ghoting et al., 2008). Zusätzlich zu der Erklärung zur Offenlegung von Übertragungen müssen Verkäufer landesweite Offenlegungsformulare ausfüllen und ein Formular ausfüllen, das von einem der von Ron formal vertretenen Boards entwickelt wurde und zusätzliche Fragen in Bezug auf schlechte Nachbarn aufwirft, einschließlich Belästigungen und drohenden oder tatsächlichen Klagen, und eine detaillierte Erklärung der festgestellten Probleme benötigen. Hier sind einige der Fragen, die Verkäufer beantworten müssen: Für die unausgewogene Datensatzklassifizierung haben Wang et al. (2012) ein neues Gewichtszuweisungsmodell definiert, das die negativen Auswirkungen der ungleichmäßigen Verteilung der Trainingsstichprobe zwischen Klassen und innerhalb von Klassen vollständig berücksichtigen kann. Erstens verwendet das Modell den K-Means-Algorithmus, der auf dem genetischen Algorithmus (GA) basiert, um den Trainingsstichprobensatz zu gruppieren. Zweitens berechnet das Modell das Gewicht für jede Trainingsprobe entsprechend den Clustering-Ergebnissen und dem Gewichtzuweisungsmodell. Schließlich verwendet das Modell den verbesserten K-Nächsten-Algorithmus, um die Testproben zu klassifizieren, was die Identifikationsrate der Minderheitenstichproben und die Gesamtklassifizierungsleistung erheblich verbessern kann.
Zunächst geben wir einen kurzen Überblick über die räumlichen Frühwarnsignale, die bisher in der Literatur vorgeschlagen wurden. Weitere Einzelheiten zu den Indikatoren und deren präziser mathematischer Formulierung finden Sie in Anhang S1. Tabelle 1 fasst die räumlichen Indikatoren und ihre erwarteten Trends entlang eines Abbaugradienten zusammen. Die Nachteile des Algorithmus der nächsten Nachbarn sind wie folgt: (1) Es hat eine kostspielige Testphase.