This book is intended for students in computer science, formal linguistics, mathematical logic and to colleagues interested in categorial grammars and their logical foundations. These lecture notes present categorial grammars as deductive systems, in the approach called parsing-as-deduction, and the book includes detailed proofs of their main properties. The papers are organized in topical sections on AB grammars, Lambek’s syntactic calculus, Lambek calculus and montague grammar, non-associative Lambek calculus, multimodal Lambek calculus, Lambek calculus, linear logic and proof nets and proof nets for the multimodal Lambek calculus.
This volume constitutes the refereed post-conference proceedings of the Third International Conference on the History and Philosophy of Computing, held in Pisa, Italy in October 2015. The 18 full papers included in this volume were carefully reviewed and selected from the 30 papers presented at the conference. They cover topics ranging from the world history of computing to the role of computing in the humanities and the arts.
This book argues for a view in which processes of dialogue and interaction are taken to be foundational to reasoning, logic, and meaning. This is both a continuation, and a substantial modification, of an inferentialist approach to logic. As such, the book not only provides a critical introduction to the inferentialist view, but it also provides an argument that this shift in perspective has deep and foundational consequences for how we understand the nature of logic and its relationship with meaning and reasoning. This has been upheld by several technical results, including, for example a novel approach to logical paradox and logical revision, and an account of the internal justification of logical rules. The book shows that inferentialism is greatly strengthened, such that it can answer the most stringent criticisms of the view. This leads to a view of logic that emphasizes the dynamics of reasoning, provides a novel account of the justification and normativity of logical rules, thus leading to a new, attractive approach to the foundations of logic. The book addresses readers interested in philosophy of language, philosophical and mathematical logic, theories of reasoning, and also those who actively engage in current debates involving, for example, logical revision, and the relationship between logic and reasoning, from advanced undergraduates, to professional philosophers, mathematicians, and linguists.
Although sequent calculi constitute an important category of proof systems, they are not as well known as axiomatic and natural deduction systems. Addressing this deficiency, Proof Theory: Sequent Calculi and Related Formalisms presents a comprehensive treatment of sequent calculi, including a wide range of variations. It focuses on sequent calculi for various non-classical logics, from intuitionistic logic to relevance logic, linear logic, and modal logic. In the first chapters, the author emphasizes classical logic and a variety of different sequent calculi for classical and intuitionistic logics. She then presents other non-classical logics and meta-logical results, including decidability results obtained specifically using sequent calculus formalizations of logics. The book is suitable for a wide audience and can be used in advanced undergraduate or graduate courses. Computer scientists will discover intriguing connections between sequent calculi and resolution as well as between sequent calculi and typed systems. Those interested in the constructive approach will find formalizations of intuitionistic logic and two calculi for linear logic. Mathematicians and philosophers will welcome the treatment of a range of variations on calculi for classical logic. Philosophical logicians will be interested in the calculi for relevance logics while linguists will appreciate the detailed presentation of Lambek calculi and their extensions.
Mit über 200.000 verkauften Exemplaren dominierte „Power – Die 48 Gesetze der Macht“ von Robert Greene monatelang die Bestsellerlisten. Nun erscheint der Klassiker als Kompaktausgabe: knapp, prägnant, unterhaltsam. Wer Macht haben will, darf sich nicht zu lange mit moralischen Skrupeln aufhalten. Wer glaubt, dass ihn die Mechanismen der Macht nicht interessieren müssten, kann morgen ihr Opfer sein. Wer behauptet, dass Macht auch auf sanftem Weg erreichbar ist, verkennt die Wirklichkeit. Dieses Buch ist der Machiavelli des 21. Jahrhunderts, aber auch eine historische und literarische Fundgrube voller Überraschungen.
Apple, Audi, Braun oder Samsung machen es vor: Gutes Design ist heute eine kritische Voraussetzung für erfolgreiche Produkte. Dieser Klassiker beschreibt die fundamentalen Prinzipien, um Dinge des täglichen Gebrauchs umzuwandeln in unterhaltsame und zufriedenstellende Produkte. Don Norman fordert ein Zusammenspiel von Mensch und Technologie mit dem Ziel, dass Designer und Produktentwickler die Bedürfnisse, Fähigkeiten und Handlungsweisen der Nutzer in den Vordergrund stellen und Designs an diesen angepasst werden. The Design of Everyday Things ist eine informative und spannende Einführung für Designer, Marketer, Produktentwickler und für alle an gutem Design interessierten Menschen. Zum Autor Don Norman ist emeritierter Professor für Kognitionswissenschaften. Er lehrte an der University of California in San Diego und der Northwest University in Illinois. Mitte der Neunzigerjahre leitete Don Norman die Advanced Technology Group bei Apple. Dort prägte er den Begriff der User Experience, um über die reine Benutzbarkeit hinaus eine ganzheitliche Erfahrung der Anwender im Umgang mit Technik in den Vordergrund zu stellen. Norman ist Mitbegründer der Beratungsfirma Nielsen Norman Group und hat unter anderem Autohersteller von BMW bis Toyota beraten. „Keiner kommt an Don Norman vorbei, wenn es um Fragen zu einem Design geht, das sich am Menschen orientiert.“ Brand Eins 7/2013 „Design ist einer der wichtigsten Wettbewerbsvorteile. Dieses Buch macht Spaß zu lesen und ist von größter Bedeutung.” Tom Peters, Co-Autor von „Auf der Suche nach Spitzenleistungen“
An traditionellen Intelligenztests wird häufig deren Bildungs- und Kulturabhängigkeit kritisiert. Der Autor beschäftigt sich mit einem neueren Ansatz der Intelligenzforschung, der die Entwicklung neuartiger, weitestgehend kulturunabhängiger Intelligenztests in Aussicht stellt. Dieser "mental speed”-Ansatz nimmt eine zentralnervös bedingte Informationsverarbeitungsgeschwindigkeit als Grundlage individueller Unterschiede in der menschlichen Intelligenz an und versucht, diese über die Reaktionszeiten in elementar-kognitiven Aufgaben zu erfassen. Das Buch gibt eine Einführung in die diesbezügliche kognitiv-psychologische und psychophysiologische Forschung, wobei – für gewisse Bereiche erstmalig – die Ergebnisse in meta-analytischer Vorgangsweise aggregiert werden. Nach einer Vorstellung der theoretischen Erklärungsmodelle werden auch alternative Erklärungsansätze behandelt und hierzu neue Forschungsergebnisse des Verfassers präsentiert. Auf diesen Grundlagen aufbauend entwickelt der Autor ein integrierendes Modell zur Erklärung des Zusammenhangs zwischen Informationsverarbeitungsgeschwindigkeit und Intelligenz.
Es ist uns heute selbstverständlich, daß numerische Rechenverfahren erfolgreich ein gesetzt werden können, um physikalische Zusammenhänge zu durchleuchten. Dabei haben wir entsprechend Bild 1 eine mehr oder weniger enge Verflechtung zwischen Mathematikern, Physikern und den Fachleuten der Informationsverarbeitung. Die mathematischen Lehrgebäude dienen dem Aufbau physikalischer Modelle, deren numerische Durchrechnung heute mit elektronischen Datenverarbeitungsanlagen er folgt. Die Aufgabe der Fachleute der Informationsverarbeitung besteht im wesentlichen darin, für die von den Mathematikern und Physikern entwickelten Modelle möglichst brauchbare numerische Lösungen zu finden. Ein rückwirkender'Einfluß der Daten verarbeitung auf die Modelle und die physikalische Theorie selbst besteht lediglich indirekt in der bevorzugten Anwendung solcher Methoden, die der numerischen Lö sung besonders leicht zugänglich sind. Das enge Zusammenspiel zwischen Mathematikern und Physikern hat sich sehr günstig in bezug auf die Entwicklung der Modelle theoretischer Physik ausgewirkt. Das mo derne Gebäude der Quantentheorie ist weitgehend reine bzw. angewandte Mathematik. Es scheint daher die Frage berechtigt, ob die Informationsverarbeitung bei diesem Zusammenspiel nur eine ausführende Rolle spielen kann, oder ob auch von dort be fruchtende Ideen gegeben werden können, welche die physikalischen Theorien selbst rückwirkend beeinflussen. Diese Frage ist umso berechtigter, als sich in enger Zusam menarbeit mit der Informationsverarbeitung ein neuer Zweig der Wissenschaft ent wickelt hat, nämlich die Automatentheorie. Im folgenden werden einige Ideen in dieser Richtung entwickelt. Dabei kann keinerlei Anspruch auf Vollständigkeit in der Behandlung des Themas erhoben werden.
Der Nr.1-Bestseller aus den USA: Wie man in einer von Chaos und Irrsinn regierten Welt bei Verstand bleibt! Wie können wir in der modernen Welt überleben? Jordan B. Peterson beantwortet diese Frage humorvoll, überraschend und informativ. Er erklärt, warum wir Kinder beim Skateboarden alleine lassen sollten, welches grausame Schicksal diejenigen ereilt, die alles allzu schnell kritisieren und warum wir Katzen, die wir auf der Straße antreffen, immer streicheln sollten. Doch was bitte erklärt uns das Nervensystem eines Hummers über unsere Erfolgschancen im Leben? Und warum beteten die alten Ägypter die Fähigkeit zu genauer Beobachtung als höchste Gottheit an? Dr. Peterson diskutiert Begriffe wie Disziplin, Freiheit, Abenteuer und Verantwortung und kondensiert Wahrheit und Weisheit der Welt in 12 praktischen Lebensregeln. »12 Rules For Life« erschüttert die Grundannahmen von moderner Wissenschaft, Glauben und menschlicher Natur. Dieses Buch verändert Ihr Leben garantiert!
Julius, ein junger Psychiater, durchstreift die Straßen Manhattans, allein und ohne Ziel, stundenlang. Die Bewegung ist ein Ausgleich zur Arbeit, sie strukturiert seine Abende, seine Gedanken. Er lässt sich treiben, und während seine Schritte ihn tragen, denkt er an seine kürzlich zerbrochene Liebesbeziehung, seine Kindheit, seine Isolation in dieser Metropole voller Menschen. Fast unmerklich verzaubert sein Blick die Umgebung, die Stadt blättert sich vor ihm auf, offenbart die Spuren der Menschen, die früher hier lebten. Mit jeder Begegnung, jeder neuen Entdeckung gerät Julius tiefer hinein in die verborgene Gegenwart New Yorks – und schließlich in seine eigene, ihm fremd gewordene Vergangenheit. Für seinen faszinierenden Roman über einen Flaneur des 21. Jahrhunderts ist Teju Cole international von Presse und Lesern gefeiert und mit Autoren wie Sebald, Camus oder Naipaul verglichen worden. Getragen vom Fluss seiner bewegenden, klaren Sprache, erzählt »Open City« eine Geschichte von Erinnerung, Entwurzelung und der erlösenden Kraft der Kunst.
Platon: Der Staat Entstanden etwa in der Mitte der siebziger Jahre des 4. Jahrhunderts v. Chr. Erstdruck (in lateinischer Übersetzung durch Marsilio Ficino) in: Opera, Florenz o. J. (ca. 1482/84). Erstdruck des griechischen Originals in: Hapanta ta tu Platônos, herausgegeben von M. Musuros, Venedig 1513. Erste deutsche Übersetzung (in Auszügen) durch G. Lauterbeck unter dem Titel »Summa der Platonischen Lere, von den Gesetzen und Regierung des gemeinen Nutzes« in: G. Lauterbeck, Regentenbuch, Leipzig 1572. Erste vollständige deutsche Übersetzung durch Johann Friedrich Kleuker unter dem Titel »Die Republik oder ein Gespräch über das Gerechte« in: Werke, 2. Band, Lemgo 1780. Der Text folgt der Übersetzung durch Wilhelm Siegmund Teuffel (Buch I-V) und Wilhelm Wiegand (Buch VI-X) von 1855/56. Vollständige Neuausgabe mit einer Biographie des Autors. Herausgegeben von Karl-Maria Guth. Berlin 2013. Textgrundlage ist die Ausgabe: Platon: Sämtliche Werke. Berlin: Lambert Schneider, [1940]. Die Paginierung obiger Ausgabe wird in dieser Neuausgabe als Marginalie zeilengenau mitgeführt. Umschlaggestaltung von Thomas Schultz-Overhage unter Verwendung des Bildes: Raffael, Die Schule von Athen (Detail). Gesetzt aus Minion Pro, 11 pt.
Referentialität, Gemeinschaftlichkeit und Algorithmizität sind die charakteristischen Formen der Kultur der Digitalität, in der sich immer mehr Menschen, auf immer mehr Feldern und mithilfe immer komplexerer Technologien an der Verhandlung von sozialer Bedeutung beteiligen (müssen). Sie reagieren so auf die Herausforderungen einer chaotischen, überbordenden Informationssphäre und tragen zu deren weiterer Ausbreitung bei. Dies bringt alte kulturelle Ordnungen zum Einsturz und Neue sind bereits deutlich auszumachen. Felix Stalder beleuchtet die historischen Wurzeln wie auch die politischen Konsequenzen dieser Entwicklung. Die Zukunft, so sein Fazit, ist offen. Unser Handeln bestimmt, ob wir in einer postdemokratischen Welt der Überwachung und der Wissensmonopole oder in einer Kultur der Commons und der Partizipation leben werden.

Best Books