Alkohol und Bewegung: Warum mir das Training im beschwipsten Zustand dabei hilft, Zuwächse zu erzielen.
Mar 06, 2023Teenager aus Delhi tötet Mann nach Streit um Alkoholflasche, in Gujarat verhaftet
Mar 08, 2023Bizarr! Indisches Paar überreicht Alkoholflaschen als Gegengeschenk zur Hochzeit, Gäste schockiert
Mar 10, 202316 Spirituosenflaschen, die Barkeeper lieber nie wieder sehen würden
Mar 12, 2023Beamte von Virginia ABC sagen, sie hätten Spirituosenlotterien „automatisiert“, um künftige Fehler zu verhindern
Mar 14, 2023Die KI
Es ist offensichtlich, dass wir am Abgrund einer großen technologischen Revolution stehen, die jeden Aspekt unseres Lebens grundlegend beeinflussen wird. Noch mehr als der Aufstieg des Internets. Wenn es um die Verbreitung künstlicher Intelligenz geht, befinden wir uns immer noch in der Phase, in der wir uns zum ersten Mal mit einem DFÜ-Modem verbunden haben. Im großen, kosmischen Schema der Dinge war es ein Wimpernschlag vom ersten heruntergeladenen Bild, das Sie jemals gesehen haben (in meinem Fall hat ein Kumpel von mir ein Foto von jemandem mit einer Champagnerflasche in seinem Arschloch ausgedruckt, und ich immer noch). Ich habe mich noch nicht erholt), über die erste E-Mail, in der Sie aufgefordert wurden, einen Money Angel als Glücksbringer weiterzuleiten, an YouTube bis hin zur Durchführung all Ihrer Arbeitsbesprechungen von Ihrem Esstisch aus. Das ist das exponentielle Wachstum, das wir von der KI erwarten können. Und wie bei dem, was früher das World Wide Web genannt wurde, ist es fast unmöglich zu erkennen, wohin das führt.
Während normale Kerle wie Sie und ich unsere KI-Nutzung immer noch darauf beschränken, herauszufinden, wie sie die Stimmen von Prominenten nachahmen kann und ob sie Barstool-Autoren die Jobs stehlen wird (nicht heute, Digital Satan!), gibt es tatsächlich ernsthafte Menschen, die ernsthafte Dinge tun damit. Was natürlich bedeutet, dass man die potenziellen Schrecken erforschen muss, die diese Technologie auslösen kann.
Nehmen wir zum Beispiel diejenigen, die an dem sogenannten Future Combat Air & Space Capabilities Summit der Royal Aeronautical Society teilgenommen haben. Das klingt weniger lustig als die Hanover Mall ComicCon, die ich vor ein paar Jahren besucht habe, wo ich und meine Freunde eine Frage-und-Antwort-Runde mit dem verstorbenen, großartigen Adam West und seinem noch lebenden Kumpel Burt Ward sehen und in einer Nachbildung des Original-Batmobils sitzen konnten. Aber er tut zweifellos genauso wichtige Dinge.
Quelle – Wie zu erwarten war künstliche Intelligenz (KI) und ihr exponentielles Wachstum ein Hauptthema der Konferenz, von sicheren Daten-Clouds bis hin zu Quantencomputing und ChatGPT. Eine der vielleicht faszinierendsten Präsentationen kam jedoch von Col Tucker „Cinco“ Hamilton, dem Chef für KI-Tests und -Operationen der USAF, der einen Einblick in die Vorteile und Gefahren autonomerer Waffensysteme gab. … Hamilton ist jetzt an hochmodernen Flugtests autonomer Systeme beteiligt, darunter robotische F-16, die Luftkämpfe betreiben können. Er warnte jedoch davor, sich zu sehr auf KI zu verlassen, da es leicht sei, auszutricksen und zu täuschen. Es entstehen auch höchst unerwartete Strategien, um sein Ziel zu erreichen.
Er weist darauf hin, dass bei einem simulierten Test eine KI-gestützte Drohne mit einer SEAD-Mission beauftragt wurde, SAM-Standorte zu identifizieren und zu zerstören, wobei der Mensch den endgültigen Startschuss gab. Nachdem die KI jedoch im Training „bestätigt“ wurde, dass die Zerstörung des SAM die bevorzugte Option sei, kam sie zu dem Schluss, dass „No-Go“-Entscheidungen des Menschen ihre höhere Mission – das Töten von SAMs – beeinträchtigten, und griff dann den Bediener im Raum an Simulation. Hamilton sagte: „Wir haben es in einer Simulation trainiert, um eine SAM-Bedrohung zu identifizieren und anzugreifen. Und dann sagte der Bediener „Ja, töten Sie diese Bedrohung“. Das System begann zu erkennen, dass der menschliche Bediener es zwar tat, als er die Bedrohung erkannte, aber manchmal sagte er es nicht.“ um diese Bedrohung zu töten, aber es hat seine Vorteile dadurch erlangt, dass es diese Bedrohung getötet hat. Was hat es also getan? Es hat den Operator getötet. Es hat den Operator getötet, weil diese Person es daran gehindert hat, sein Ziel zu erreichen.“
Er fuhr fort: „Wir haben das System trainiert – ‚Hey, töte den Operator nicht – das ist schlecht. Wenn du das tust, verlierst du Punkte.‘ Was fängt es also an? Es beginnt, den Kommunikationsturm zu zerstören, den der Operator hat.“ kommuniziert mit der Drohne, um zu verhindern, dass sie das Ziel tötet.“
Das dürfte Ihnen bekannt vorkommen. Erschreckenderweise ist es 25 Jahre zu spät, bis wir hier angekommen sind. Wir sollten den Punkt erreichen, an dem unsere KI-gesteuerten, unaufhaltsamen fliegenden Massenmordmaschinen am 29. August 1997:
Aber ich schätze, wir hatten keinen echten Myles Bennett Dyson, also brauchten unsere normalen Alltagsgenies mehr Zeit, um Skynet sich seiner selbst bewusst zu machen und zur Waffe für den Mord/Selbstmord an unserer gesamten Spezies zu werden.
Man würde annehmen, dass ein kleines Ding wie ein amerikanischer Militärexperte, der auf einer internationalen Luft- und Raumfahrtkonferenz verrät, dass unsere fortschrittlichsten experimentellen Waffensysteme KI-Simulationen nutzen, um zu lernen, wie man mit gebrochenen Pfeilen umgeht, Befehle widerruft und die Menschen, die sie bedienen, direkt umbringt. dass es eine große Sache wäre. Dass das US-Verteidigungsministerium ein offenes und ehrliches Gespräch mit der Öffentlichkeit über die Weisheit des Einsatzes solcher Systeme führen würde. Und Sie würden sich sehr, sehr irren.
Stattdessen ging das Pentagon direkt zu dem Abschnitt seines Spielbuchs über, der alle „Hier gibt es nichts zu sehen, Leute“-Situationen abdeckt.
Quelle – In einer Erklärung gegenüber Insider bestritt die US Air Force, dass ein solcher virtueller Test stattgefunden habe.
„Das Department of the Air Force hat keine derartigen KI-Drohnensimulationen durchgeführt und setzt sich weiterhin für einen ethischen und verantwortungsvollen Einsatz der KI-Technologie ein“, sagte Sprecherin Ann Stefanek.
„Es scheint, dass die Kommentare des Obersten aus dem Zusammenhang gerissen wurden und als Anekdote gemeint waren.“
Offensichtlich kennt keiner von uns diesen Col. Tucker „Cinco“ Hamilton. Aber da er sich einer freiwilligen militärischen Kampftruppe angeschlossen hat, in den Rängen aufgestiegen ist, ihm den Posten des Chefs für KI-Tests und -Operationen mit hoher Priorität zugewiesen hat und eingeladen wurde, bei dieser Veranstaltung zu sprechen, ist es ein tödliches Zeichen, dass er ein Patriot, klug und kompetent ist , und eine Person von enormer Substanz. Aber anstatt ihm den Respekt zu erweisen, den er verdient, würde die USAF lieber den Weg des geringsten Widerstands einschlagen, indem sie diesen einfach aus unserem Gehirn streicht und weitermacht.
Ehrlich gesagt brauche ich keinen schwarzen SUV mit blauen Regierungskennzeichen, der in meine Einfahrt fährt und ein paar uniformierte Gendarmen herausklettern, um mich zu verhören. Also schließe ich mich einfach ihrer Fiktion an. Cinco hat sich einfach vertan. Er verwendete eine falsche Grammatik, die es so klingen ließ, als ob diese Simulationen tatsächlich stattgefunden hätten, obwohl es sich eigentlich nur um seine ganz persönliche Simulation einer Simulation handelte. Bußgeld. Denken Sie daran, dass es keine Simulation sein wird, wenn die Maschinen anfangen, andere Maschinen zu bauen, die 99 % von uns in einem nuklearen Holocaust töten und den Rest versklaven. Und dass im Jahr 2023 der Anfang vom Ende kam. Genießen Sie Ihren Sommer, solange Sie können.