TurtleBot 2

Der TurtleBot 2

Beschreibung und Eigenschaften

 






















TurtleBot 2 ist ein mobiles Roboterkit mit Open-Source-Software, der mit einer Blackboard Architektur namens ROS (Robot Operating System) gesteuert wird. Durch diese Architektur können verschiedene Programmiersprachen im selben Projekt genutzt werden. Diese sind vorwiegend Python und C++. Durch seinen flexiblen Baustil können ebenso diverse Komponenten ergänzt werden, damit auch mehr Funktionalitäten hinzugefügt werden können.

Im Rahmen eines Projektes wurde er von Studenten liebevoll zu Botty McTurtleFace getauft oder kurz Botty.

Videos

Botty fährt vorwärts und umgeht ein Objekt.

 

Botty fährt ein Viereck.

 

 

Ausstattung

Im Auslieferungszustand besaß der Turtlebot 2 mehrere Hardware Komponenten, um seine Umgebung wahrzunehmen und mit ihr interagieren zu können. Alle sind mit einem NUC PC mit Ubuntu 16.04 verbunden, der sich direkt als Onboard PC auf dem TurtleBot 2 befindet. Folgende Komponenten besitzt er:

  • Greifarm PhantomX Reactor
    Der PhantomX Reactor Arm ist ein ROS-kompatibler Greifarm. Der Greifarm wird über einen Arbotix-M gesteuert, welches ein modifiziertes Arduino-Board zur Ansteuerung von Servo-Motoren ist. Auf dem NUC des TurtleBot kann eine ROS Anwendung gestartet werden, welche Positionierungsbefehle für den Greifarm annimmt und diese Befehle dann an das Arduino-Board weiterleitet. Hierfür befindet sich ein Arduino-Image auf dem Arbotix-M, welches die ROS-Befehle interpretiert und entsprechend die Servo-Motoren ansteuert. 
  • Lidar Hokuyo URG-04LX-UG01
    Es handelt sich hierbei um einen Laserscanner zur Berechnung von Distanzen auf einer horizontalen Ebene. Der Wahrnehmungswinkel beträgt 240° und die Wahrnehmungsreichweite ist bis zu ca. 4 Meter.
  • 3D-Kamera Orbbec Astra
    Die Orbbec ist eine 3D-Kamera mit einem Sichtfeld von 60° horizontal und 49,5° vertikal. Dazu hat sie eine Reichweite von bis zu 8 meter.
  • Kobuki-Base
    Die Kobuki-Base macht den TurtleBot 2 mobil und beinhaltet die benötigte Lithium-Ionen Batterie. Daneben stellt die Basis auch Tasten, LEDs und Bumpers, zur Kollisionserkennung, zur Verfügung.

Allerdings erlaubt seine besondere Baustruktur durch Halterungen und Platten mehrere Etagen über der Kobuki-Base zu stapeln, um auf diese Weise mehr Platz für weitere Komponenten hinzuzufügen. Daher wurden zu den ursprünglichen Komponenten noch ein Mikro für Spracherkennung und Sprachausgabe hinzugefügt. Ebenso wurde die 3D-Kamera ummontiert und an der Unterseite einer der Platten angebracht, damit sie ein besseres Sichtfeld hat.

Arbeiten mit Turtlebot 2
Programmierung

Die Programmierung ist einfacher als man denkt. Wie bereits erwähnt unterstützt ROS sowohl Python, wie auch C++. Im folgenden wird ein Python Beispiel betrachtet, mit dem der TurtleBot 2 ein Viereck fahren soll. Ein Video davon ist weiter oben zu finden.

def drive(meter): # starte den Motor Service, um mit ihm kommunizieren zu können rospy.wait_for_service('motor') job = rospy.ServiceProxy('motor', call) # Die Nachricht ist in diesem Fall ein Objekt "call" # erzeuge die Nachricht param=[] param.append(meter) command=call() command.call="forwardByMeters" # die vom Motor erwünschte Aktion command.param=param # die zurück zu legende Distanz #sende die Nachricht response=job(command.call,command.param) # Übermittelung der Nachricht return response # Ausgabe der zurück erhaltenen Antwort def turn(angle): # starte den Motor Service, um mit ihm kommunizieren zu können rospy.wait_for_service('motor') job = rospy.ServiceProxy('motor', call) # Die Nachricht ist in diesem Fall ein Objekt "call" # erzeuge die Nachricht param=[] param.append(angle) command=call() command.call="turnRigthByAngle" # die vom Motor erwünschte Aktion command.param=param # die zurück zu legende Distanz in Gradzahl #sende die Nachricht response=job(command.call,command.param) # Übermittelung der Nachricht return response # Ausgabe der zurück erhaltenen Antwort if __name__ == "__main__": for x in range (0,4): print("Going Forward to "+str(drive(1.0))) sleep(0.1) print("Turning around to: "+str(turn(90))) sleep(0.1) Weiterlesen

Kennen Sie Ihre KI?

Katzentoast – Toast mit Katze? – Katze mit dickem Hals?

Kennen Sie Ihre KI? 

Was eine KI kann, und was nicht.

von Adrian Müller

Worum geht es?

Der folgende Beitrag ist eine Langfassung des Vortrags “Verstehen Sie Ihre KI? – Was KI kann, und was nicht.”, gehalten auf der Zukunftsmesse KI 2018.

Der Begriff Künstliche Intelligenz ist zwar in aller Munde, scheint jedoch bei genauerem Nachfragen sehr unterschiedlich besetzt. Ist beispielsweise ein Navigationssystem im Auto intelligent? Ist es „mehr“ intelligent, wenn es auf Verkehrsstörungen beispielsweise mit einer dynamischen Umfahrung reagiert?

Vor ein, zwei Dekaden wäre ein solches System zumindest technisch gesehen ein kleines Wunderwerk gewesen. Am technischen Fortschritt jedoch kann man einen Begriff inhaltlich nicht festmachen. Erst bei genauerer Betrachtung erkennt man Eigenschaften die unabhängig vom technischen Startpunkt eines Systems oder Lebewesen Gültigkeit haben.

Die Definition von Künstlicher Intelligenz in der Informatik, die sich in vielen Situationen bewährt hat, ist die eines „rationalen Agenten“. Der Agent, ein Computerprogramm, kann eine vorgegebene Aufgabe effizient und zielgerichtet erfüllen. Dabei setzt es je nach Situation und Umgebung Komponenten ein wie automatisches und überwachtes Lernen, Planen unter Zeit und Kostenoptimierung, Mustererkennung in Daten, Bildern, Audio usw.

Diese Komponenten wiederum benutzen Algorithmen zur Datenanalyse, zum Lernen von Mustern, zum logischen Schließen und zum Anwenden von Regeln auf ein gegebenes Problem. Dieser Zusammenhang zwischen Algorithmen, Optimierungen und Anwendungsszenarien wird in der aktuellen Diskussion gerne als „künstliche Intelligenz“ in unangebrachter Weise vereinfacht.

Um ein Beispiel zu geben: die automatische Verschlagwortung eines Bildes ist deutlich weniger intelligent als die Leistung der Saatkrähen im Freizeitpark “Puy de Fou” im Sommer 2018. Der Falkner des Parks hat sie erfolgreich darauf trainiert, eingesammelte Zigarettenkippen gegen Fressen zu tauschen. Eine intelligente Leistung, die sich nur durch Mustererkennung in Kombination mit zielgerichtetem Lernen erklären lässt (s. Beitrag in Euronews.com, 2018) – und das sehr rational ist!

In diesem “Standpunkt” fokussieren wir uns auf die Möglichkeiten und Grenzen der Mustererkennung (Bilder, Datensätze), von Lernverfahren, HCI, und Data und Text Mining. Dies entspricht technologisch dem primären Anteil der Systeme, wie sie in den letzten Jahren populär geworden sind. Dazu zählen Foto-tagging Applikationen, Bildmanipulationen, selbstfahrende Autos und Ähnliches.

Eine weiterführende Diskussion zu humanoiden Robotern, autonomen Fahrzeugen und ihrer Zuverlässigkeit, oder beispielsweise medizinischen Expertensystemen vermeiden wir in diesem Beitrag bewusst. Die gesellschaftlichen und ethischen Fragestellungen stellen eine andere Qualität der Diskussion dar.

In diesem Beitrag geht es stattdessen darum, dass sich technische und nicht technische Leser und Zuhörer in ihrem Verständnis von künstlicher Intelligenz gegenseitig kennenlernen können – auf Basis der prinzipiellen Gesetzmäßigkeiten, denen solche Systeme unterliegen.

Was in der aktuellen Diskussion von „KI“ – sprachlich präziser: vom Einsatz der Methoden der künstlichen Intelligenz in der Anwendungsentwicklung – und der allgemeinen Panikmache um die „Gefahr durch eine Super-KI“ und die „Macht der Maschinen“ ebenfalls gerne übersehen wird, sind die kreativen und gestalterischen Möglichkeiten durch den Einsatz einer KI, sei es als Werkzeug, oder als Trainingsgerät und vieles anderes mehr.

Im abschließenden Teil dieses Beitrages finden sich daher kritische Überlegungen zur Mensch-Maschine-Kommunikation genauso wie zu den positiven Auswirkungen von neuen Technologien auf den Erkenntnisgewinn in der Medizin und anderen Bereichen der Forschung. Die assoziierten Schlagwörter hier sind “industrie 4.0”, „high-speed science“, und auch „disruptive“ Technologien.

Mustererkennung vs. Bildverstehen

In 2015, a black software developer named Jacky Alciné embarrassed Google by tweeting that the company’s Photos service had labeled photos of him with a black friend as “gorillas.” Google declared itself “appalled and genuinely sorry.” An engineer who became the public face of the clean-up operation said the label gorilla would no longer be applied to groups of images, and that Google was “working on longer-term fixes.”

More than two years later, one of those fixes is erasing gorillas, and some other primates, from the service’s lexicon. The awkward workaround illustrates the difficulties Google and other tech companies face in advancing image-recognition technology, which the companies hope to use in self-driving cars, personal assistants, and other products.

WIRED tested Google Photos using a collection of 40,000 images well-stocked with animals. It performed impressively at finding many creatures, including pandas and poodles. But the service reported “no results” for the search terms “gorilla,” “chimp,” “chimpanzee,” and “monkey.”

Quelle:

https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/ Weiterlesen

Data- und Text Mining

Hallo und Willkommen,

HIer finden Sie alle aktiven und abgeschlossenen Arbeiten von Studierenden und Mitgliedern der HS Kaiserslautern zu den Themenfeldern Data Mining und Text Mining; von der Studien- und Bachelorarbeit über Praxisprojekte und Mining Studien im Master bis hin zur Master Thesis.

In vielen Fällen sehen Sie eine Kurzdarstellung oder – bei aktiven Projekten – die Konzeption.

Die Autoren freuen sich auf Ihre Kontaktaufnahme, und stellen Ihnen weiteres Material gerne zur Verfügung.

Projekte:

  • Toxic Comment Classification
    Text Mining Studie zur Sentiment Analyse in Wikipedia
  • Vorhersage und Steuerung des Stromverbrauchs in London
    Eine Data Mining Studie zur Trendanalyse und Vorhersage
  • Weiterlesen


    Teile diese Seite

    Chat Bots

    Einleitung: Chat-Bot, Sprachassistent oder KI?

    Ist es ein sog. „Chat-Bot“, oder ein sprach-basierter Assistent, oder ist es gar eine KI, die in der Lage ist, natürliche Sprache zu verstehen?

    Viele Laien und  Einsteiger können diese Unterscheidung nicht ausreichend präzise treffen – daher werden diese Systeme in drei Einträgen hier im Glossar erläutert. Wir diskutieren den Unterschied zwischen

    • einer simulierten („fake“) menschlichen Konversation („Chat Bot“), der vorwiegend unterhaltend oder informativ soll („small talk“),
      • einem Sprachassistenten (auch genannt: sprach-basierter Assistent, virtueller Assistent), wie Siri und Alexa; diese System sind passiv, reagieren auf  Befehle und Fragen (wie Termine eintragen, Dinge einkaufen). Dazu benötigen diese Systeme lediglich ein eher oberflächliches Verständnis der natürlichen Sprache, und interagieren wenig bis gar nicht mit dem Menschen [der Glossar Eintrag dazu folgt in Kürze].

      KI-Systemen mit „echtem“ Sprachverständnis (wie IBMs Watson), die die Semantik von Sätzen erkennen, und längere Dokumente und Sammlungen von Texten analysieren können, fachliche Anfragen verstehen und sogar Experten Neues vermitteln können [der Glossar Eintrag dazu folgt in Kürze].

      Zu bemerken ist, das aktuelle Systeme diese Grenzen zunehmend verwischen (s.  Google Duplex, s. Microsofts Akquise von „Semantic Machines“ , um Cortana das Führen von Dialogen zu ermöglichen, beides im Mai 2018).

      „Chat-Bot“ –  Grundlagen für Einsteiger

      Als Einstieg hier Sammlung von Fakten, die sich von der – in Teilen durchaus kritischen – Einführung auf Wikipedia (s. im Beitrag die Punkte „Chatterbots vs. „Chat Bots“) unterscheidet:

      • Wie war die historische Entwicklung solcher Bots? Der erste Chat-Bot „Eliza“ stammt aus dem Jahr 1966, ist im Wikipedia Beitrag erwähnt, aber dann wird es verkürzt. So ist bspw. Apples „Siri“ als „Weiterentwicklung“ bezeichnet. Damit übersieht der Beitrag den militärischen Ursprung von Siris Konzeption, deren sprachliche Reduktion auf wenige Kommandos und Frageformen, den Verzicht auf „echte“ Dialoge, und eine Architektur, die Erweiterbarkeit durch kommerzielle Anwendungen unterstützen muss (vgl. die „Skills“ bei Alexa. )
      • Es fehlt im Wikipedia Beitrag weiterhin die fachliche Warnung vor der typischen Fehleinschätzung vieler Nicht-Fachleute, das sprach-basierte Assistenten wie Siri und Alexa „so ähnlich“ wie Chat-Bots sind; auch wenn das Marketing für diese Produkte genau das durch Einsatz des Sammelbegriff „KI“ gerne verschleiert.

      Die Geschichte und Funktionsweise von Chat Bots und von sprach-basierten Assistenten hat der AK Smart Machines in einem populärwissenschaftlichen Vortrag Anfang 2018 diskutiert [link here]. Die verwendeten Algorithmen reichen von

      einfachen Wenn-Dann Regeln (Weizenbaums Eliza – der Mutter aller Chat Bots aus dem Jahr 1966), über
      Dialog-Modelle (wie HAM-RPM, das Hamburger Redepartner-Modell; der deutsch-sprachige automatische Hotel-Manager der 80’er Jahre, der unbedingt ein Zimmer vermieten möchte),
      dem Einsatz von allgemeinem syntaktischen und semantischem Weltwissen (Bruce Wilcox‘ AIML, mehrfacher Gewinner des Loebner Preises) und seinen erfolgreichen Chat-Bots wie Rosette
      Wilcox und viele andere verwenden

      WordNet Weiterlesen


    Teile diese Seite