أخبار

اختراع الكمبيوتر

اختراع الكمبيوتر


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

تختلف أجهزة الكمبيوتر الشخصية اليوم اختلافًا جذريًا عن الأجهزة الضخمة الضخمة التي ظهرت من الحرب العالمية الثانية - والفرق ليس فقط في حجمها. بحلول سبعينيات القرن الماضي ، تطورت التكنولوجيا لدرجة أن الأفراد - معظمهم من الهواة وهواة الإلكترونيات - يمكنهم شراء أجهزة كمبيوتر غير مجمعة أو "أجهزة كمبيوتر صغيرة" وبرمجتها من أجل المتعة ، لكن أجهزة الكمبيوتر القديمة هذه لم تتمكن من أداء العديد من المهام المفيدة التي تستطيع أجهزة الكمبيوتر اليوم. يمكن للمستخدمين إجراء حسابات رياضية ولعب ألعاب بسيطة ، ولكن تكمن معظم جاذبية الأجهزة في حداثة هذه الأجهزة. اليوم ، تبيع مئات الشركات أجهزة الكمبيوتر الشخصية والملحقات والبرامج والألعاب المتطورة ، ويتم استخدام أجهزة الكمبيوتر لمجموعة واسعة من الوظائف من معالجة الكلمات الأساسية إلى تحرير الصور إلى إدارة الميزانيات. في المنزل والعمل ، نستخدم أجهزة الكمبيوتر الخاصة بنا للقيام بكل شيء تقريبًا. يكاد يكون من المستحيل تخيل الحياة الحديثة بدونها.

اختراع الكمبيوتر: عصر الكمبيوتر

لم تكن أجهزة الكمبيوتر الإلكترونية الأولى "شخصية" بأي شكل من الأشكال: فقد كانت ضخمة ومكلفة للغاية ، وتطلبت فريقًا من المهندسين وغيرهم من المتخصصين للحفاظ على تشغيلها. أحد أشهر هذه الأجهزة ، وهو محلل التكامل العددي الإلكتروني والكمبيوتر (ENIAC) ، تم بناؤه في جامعة بنسلفانيا لإجراء حسابات المقذوفات للجيش الأمريكي خلال الحرب العالمية الثانية. تبلغ تكلفة ENIAC 500000 دولار ووزنها 30 طنًا وشغل ما يقرب من 2000 قدم مربع من المساحة الأرضية. من الخارج ، كانت ENIAC مغطاة بمجموعة متشابكة من الكابلات ، ومئات من الأضواء الوامضة وما يقرب من 6000 مفتاح ميكانيكي استخدمها مشغلوها لإخبارها بما يجب القيام به. في الداخل ، حمل ما يقرب من 18000 أنبوب مفرغ إشارات كهربائية من جزء من الجهاز إلى آخر.

اختراع الكمبيوتر: ابتكارات ما بعد الحرب

أثبتت ENIAC وغيرها من أجهزة الكمبيوتر المبكرة للعديد من الجامعات والشركات أن الآلات كانت تستحق الاستثمار الهائل للمال والمساحة والقوى العاملة التي طلبتها. (على سبيل المثال ، يمكن لـ ENIAC حل مشكلة مسار الصواريخ في غضون 30 ثانية والتي قد تستغرق 12 ساعة من فريق "أجهزة الكمبيوتر" البشرية لإكمالها.) وفي الوقت نفسه ، كانت التقنيات الجديدة تجعل من الممكن بناء أجهزة كمبيوتر أصغر حجمًا وأكثر انسيابية. في عام 1948 ، قدمت Bell Labs الترانزستور ، وهو جهاز إلكتروني يحمل التيار الكهربائي ويضخمه ولكنه أصغر بكثير من الأنبوب المفرغ الثقيل. بعد عشر سنوات ، ابتكر العلماء في Texas Instruments و Fairchild Semiconductor الدائرة المتكاملة ، وهو اختراع دمج جميع الأجزاء الكهربائية للكمبيوتر - الترانزستورات والمكثفات والمقاومات والصمامات الثنائية - في شريحة سيليكون واحدة.

لكن أحد أهم الاختراعات التي مهدت الطريق لثورة الكمبيوتر الشخصي كان المعالج الدقيق. قبل اختراع المعالجات الدقيقة ، كانت أجهزة الكمبيوتر بحاجة إلى شريحة دائرة متكاملة منفصلة لكل وظيفة من وظائفها. (كان هذا أحد الأسباب التي جعلت الآلات لا تزال كبيرة جدًا.) كانت المعالجات الدقيقة بحجم الصورة المصغرة ، وكان بإمكانها القيام بأشياء لا تستطيع رقائق الدوائر المتكاملة القيام بها: يمكنها تشغيل برامج الكمبيوتر ، وتذكر المعلومات وإدارة البيانات كلها بأنفسهم.

تم تطوير أول معالج دقيق في السوق في عام 1971 بواسطة مهندس في Intel اسمه Ted Hoff. (كانت شركة Intel موجودة في وادي سانتا كلارا بكاليفورنيا ، وهو مكان يُطلق عليه اسم "وادي السيليكون" بسبب وجود جميع شركات التكنولوجيا الفائقة المتجمعة حول مجمع ستانفورد الصناعي هناك.) أول معالج دقيق من Intel ، مقاس 1/16 × 1/8 بوصة شريحة تسمى 4004 ، لها نفس قوة الحوسبة مثل ENIAC الضخمة.

اختراع الكمبيوتر

جعلت هذه الابتكارات تصنيع أجهزة الكمبيوتر أرخص وأسهل من أي وقت مضى. ونتيجة لذلك ، وُلد "الحاسوب الصغير" الصغير وغير المكلف نسبيًا - المعروف أيضًا باسم "الكمبيوتر الشخصي". في عام 1974 ، على سبيل المثال ، قدمت شركة تُدعى Micro Instrumentation and Telemetry Systems (MITS) مجموعة أدوات حاسوبية مخصصة للبناء تُطلب بالبريد تسمى Altair. بالمقارنة مع الحواسيب الصغيرة السابقة ، حقق Altair نجاحًا كبيرًا: اشترى الآلاف من الأشخاص مجموعة 400 دولار. ومع ذلك ، فإنه في الحقيقة لم يفعل الكثير. لم يكن بها لوحة مفاتيح ولا شاشة ، وكان ناتجها مجرد بنك من الأضواء الساطعة. يقوم المستخدمون بإدخال البيانات عن طريق قلب مفاتيح التبديل.

في عام 1975 ، استأجرت MITS زوجًا من طلاب جامعة هارفارد يدعى Paul G. Allen و Bill Gates لتكييف لغة برمجة BASIC مع Altair. جعل البرنامج الكمبيوتر أسهل في الاستخدام ، وحقق نجاحًا كبيرًا. في أبريل 1975 ، أخذ المبرمجان الشابان الأموال التي جناها من "Altair BASIC" وشكلا شركة خاصة بهما - Microsoft - والتي سرعان ما أصبحت إمبراطورية.

بعد عام من بدء Gates و Allen شركة Microsoft ، قام مهندسان في نادي Homebrew Computer Club في Silicon Valley ، وهما Steve Jobs و Stephen Wozniak ، ببناء جهاز كمبيوتر محلي الصنع من شأنه أيضًا تغيير العالم. كان هذا الكمبيوتر ، المسمى Apple I ، أكثر تعقيدًا من Altair: كان يحتوي على ذاكرة أكبر ، ومعالج دقيق أرخص وشاشة بها شاشة. في أبريل 1977 ، قدم جوبز ووزنياك Apple II ، الذي كان يحتوي على لوحة مفاتيح وشاشة ملونة. أيضًا ، يمكن للمستخدمين تخزين بياناتهم على شريط كاسيت خارجي. (سرعان ما استبدلت شركة آبل هذه الأشرطة بأقراص مرنة). ولجعل Apple II مفيدًا قدر الإمكان ، شجعت الشركة المبرمجين على إنشاء "تطبيقات" لها. على سبيل المثال ، جعل برنامج جداول البيانات المسمى VisiCalc من Apple أداة عملية لجميع أنواع الأشخاص (والشركات) - وليس الهواة فقط.

ثورة الكمبيوتر

بدأت ثورة الكمبيوتر الشخصي. وسرعان ما دخلت شركات مثل Xerox و Tandy و Commodore و IBM السوق ، وأصبحت أجهزة الكمبيوتر موجودة في كل مكان في المكاتب وفي النهاية في المنازل. الابتكارات مثل "واجهة المستخدم الرسومية" ، والتي تتيح للمستخدمين تحديد الرموز على شاشة الكمبيوتر بدلاً من كتابة أوامر معقدة ، كما أن فأرة الكمبيوتر جعلت أجهزة الكمبيوتر أكثر ملاءمة وسهولة في الاستخدام. اليوم ، تتيح لنا أجهزة الكمبيوتر المحمولة والهواتف الذكية وأجهزة الكمبيوتر اللوحية الحصول على جهاز كمبيوتر معنا أينما ذهبنا.

معارض الصور









الاختراعات: الكمبيوتر والانترنت


من اخترع فأرة الكمبيوتر؟

كان المخترع دوجلاس إنجلبارت (30 يناير 1925 - 2 يوليو 2013) هو صاحب الرؤية التكنولوجية الذي أحدث ثورة في طريقة عمل أجهزة الكمبيوتر ، حيث حولها من قطعة من الآلات المتخصصة التي لا يمكن إلا لعالم مدرب استخدامها إلى أداة سهلة الاستخدام يمكن لأي شخص تقريبًا استخدامها يمكن أن تعمل معه. خلال حياته ، اخترع أو ساهم في العديد من الأجهزة التفاعلية وسهلة الاستخدام مثل فأرة الكمبيوتر ، ونظام التشغيل Windows ، وعقد المؤتمرات عبر الفيديو عبر الكمبيوتر ، والوسائط التشعبية ، والبرامج الجماعية ، والبريد الإلكتروني ، والإنترنت وغير ذلك الكثير.


لوحة الدوائر المطبوعة

بعد Gustav Tauschek ، قدم مهندس ومخترع آخر من فيينا - Paul Eisler ، مساهمة كبيرة في صناعة الإلكترونيات الحديثة من خلال اختراع لوحة الدوائر المطبوعة (PCB) في عام 1936.

وُلد اليهودي النمساوي بول إيسلر في فيينا عام 1907. بعد تخرجه بدرجة البكالوريوس في الهندسة من Technische Universität Wien (جامعة فيينا للتكنولوجيا) في عام 1930 ، كان مخترعًا ناشئًا بالفعل ، لم يتمكن & # 8217t من العثور على وظيفة مناسبة في النمسا. في عام 1934 ، وافق إيسلر على مكان عمل في بلغراد ، يوغوسلافيا ، لتصميم نظام إلكتروني لاسلكي لقطار ، ولكن هذه الوظيفة انتهت عندما عرض العميل الدفع بالحبوب بدلاً من العملة :-)

بالعودة إلى النمسا ، كتب إيسلر للصحف وأسس مجلة إذاعية ، وبدأ في التعرف على تكنولوجيا الطباعة. كانت الطباعة تقنية قوية إلى حد ما بحلول الثلاثينيات ، وبدأ إيسلر في تخيل كيف يمكن استخدام عملية الطباعة لوضع الدوائر الإلكترونية على قاعدة عازلة ، والقيام بذلك في الحجم. في ذلك الوقت ، كان من المعتاد ربط جميع المكونات في الأجهزة الإلكترونية بأسلاك ملحومة يدويًا ، وهي طريقة تصنيع معرضة للخطأ ، والتي لم تصلح لأي درجة عالية من الأتمتة. أراد Eisler التخلص من هذه المشكلات ، وطباعة الأسلاك على السبورة ، وتركيب العناصر فوقها.

في عام 1936 قرر إيسلر مغادرة النمسا هربًا من اضطهاد النازيين. حصل على دعوة للعمل في إنجلترا بناءً على طلبي براءة اختراع سبق أن قدمهما: أحدهما لتسجيل صوت رسومي والآخر لتلفزيون مجسم بخطوط دقة عمودية.

في لندن ، تمكن من بيع براءة اختراع التلفزيون مقابل 250 ينًا ، وهو ما يكفي من المال للعيش لفترة من الوقت في منزل داخلي في هامبستيد ، وهو أمر جيد ، لأنه لم يستطع العثور على وظيفة. شرع في تطوير فكرة لوحة الدوائر المطبوعة ، وقد أحبتها إحدى شركات الهاتف حقًا ، على الأقل في البداية ، لأنها كانت ستقضي على حزم الأسلاك المستخدمة في أنظمة الهاتف في ذلك الوقت. ولكن بعد ذلك أخبره الرئيس الكبير أن أعمال الأسلاك اليدوية يتم إجراؤها بواسطة & # 8220girls & # 8221 و & # 8220 الفتيات أرخص وأكثر مرونة. & # 8221 هذه & # 8217s هي الحقيقة المقدسة ، الفتيات دائمًا أكثر مرونة ، من لوحة دائرة كهربائية-)

لم يجد Eisler & # 8217t قطعة من الحظ الجيد في إنجلترا على الرغم من ذلك. مع اقتراب الحرب العالمية الثانية ، عمل على إخراج عائلته من النمسا. انتحرت شقيقته وعندما بدأت الحرب ، اعتقله البريطانيون في عام 1940 باعتباره أجنبيًا غير شرعي. بدأ هذا المهندس اللامع ، حتى وهو مغلق ، في تصنيع راديو باستخدام لوحة دوائر مطبوعة (انظر الصورة القريبة).

بعد إطلاق سراحه في عام 1941 ، تمكن إيسلر من العثور على عمل في شركة طباعة موسيقية - هندرسون وسبالدينج. في الأصل ، كان هدفه هو جعل الشركة غير قابلة للتطبيق تكنوجراف آلة كاتبة موسيقية تعمل خارج معمل في مبنى مدمر. في وقت لاحق، تكنوجراف استثمر في فكرة دائرته المطبوعة (مفهوم استخدام رقائق محفورة لوضع آثار على الركيزة). لسوء الحظ ، خسر Eisler حقوق اختراعه عندما أهمل قراءة العقد قبل التوقيع عليه ، لكنها لم تكن المرة الأولى أو الأخيرة التي يتم فيها استغلال Eisler. لقد كان عقد عمل معياريًا جدًا من حيث أنه وافق على تقديم أي حق براءة اختراع أثناء عمله مقابل أجر رمزي (جنيه إسترليني واحد) ولكنه منحه أيضًا 16.5 بالمائة من ملكية Technograph.

تبدو ألواح Eisler الأولى مثل أطباق السباغيتي ، مع عدم وجود آثار مستقيمة تقريبًا. قدم طلب براءة اختراع في عام 1943.

تكنوجراف لم يلفت أي اهتمام حتى قامت الولايات المتحدة بدمج التكنولوجيا في العمل على تقارب الصمامات للقذائف ، والتي كانت ضرورية لمواجهة القنبلة الألمانية الطائرة V-1.

بعد ذلك ، حصل إيسلر على وظيفة وبعض الشهرة. بعد الحرب انتشرت التكنولوجيا. فرضت الولايات المتحدة في عام 1948 طباعة جميع دوائر الأجهزة المحمولة جواً.

تم تقسيم طلب براءة الاختراع Eisler & # 8217s 1943 في النهاية إلى ثلاث براءات اختراع منفصلة: 639111 (الدوائر المطبوعة ثلاثية الأبعاد) ، و 639178 (تقنية رقائق الدوائر المطبوعة) ، و 639179 (طباعة المسحوق). تم نشر هذه الثلاثة في 21 يونيو 1950 ، لكن عددًا قليلاً جدًا من الشركات رخصت براءات الاختراع بالفعل ، وواجهت تكنوجراف صعوبات مالية. استقال Eisler من Technograph في عام 1957 للعمل بالقطعة.

من بين مشاريعه كمستقل ، أفلام تسخين & # 8220 أغطية الأرضيات والجدران & # 8221 والطعام ، وبطارية رقائق معدنية ، والقوالب الخرسانية ، ومدفأة البيتزا ومزيل الصقيع للنافذة الخلفية ، وأكثر من ذلك ، لكن Eisler لم يكن ناجحًا جدًا في تسويقها. في وقت لاحق ، وجد نجاحًا في المجال الطبي ، وتوفي بالعشرات من براءات الاختراع باسمه.

اختراع Eisler & # 8217s للدائرة المطبوعة بالرقائق المحفور ، في حين أنه كان ذا فائدة كبيرة لصناعة الإلكترونيات في جميع أنحاء العالم ، لم يجلب له سوى عائد مالي شخصي ضئيل. توفي Eisler في لندن في 26 أكتوبر 1992. وكان قد حصل لتوه على وسام Nuffield الفضي من معهد المهندسين الكهربائيين # 8217.

التاريخ الكامل للماك

Macintosh ، أو Mac ، عبارة عن سلسلة من عدة أسطر من أجهزة الكمبيوتر الشخصية ، تم تصنيعها بواسطة شركة Apple Inc. ، تم تقديم أول جهاز Macintosh في 24 يناير 1984 بواسطة Steve Jobs وكان أول كمبيوتر شخصي ناجح تجاريًا يتميز باحتوائه على اثنين & # x02026 تابع القراءة


محتويات

تحرير ما قبل التأسيس

التقى ستيف جوبز وستيف وزنياك لأول مرة في منتصف عام 1971 ، عندما قدم صديقهما المشترك بيل فيرنانديز ، آنذاك ، وزنياك البالغ من العمر 21 عامًا إلى جوبز البالغ من العمر 16 عامًا. [10] [11] بدأت أول شراكة تجارية بينهما في وقت لاحق من ذلك العام عندما بدأ وزنياك ، وهو مهندس إلكترونيات متعلم ذاتيًا ، في بناء "الصناديق الزرقاء" الأصلية التي مكنت الشخص من إجراء مكالمات هاتفية بعيدة المدى مجانًا. [12] تمكن جوبز من بيع حوالي مائتي صندوق أزرق مقابل 150 دولارًا لكل منها ، وتقاسم الربح مع وزنياك. [10] [11] أخبر جوبز لاحقًا كاتب سيرته أنه لولا الصناديق الزرقاء لوزنياك ، "لما كانت هناك شركة آبل". [13]

وقد انسحب جوبز ووزنياك ، اللذان يُشار إليهما معًا باسم "الستيفيز" ، من كلية ريد وجامعة كاليفورنيا في بيركلي على التوالي بحلول عام 1975. صمم وزنياك محطة فيديو يمكنه استخدامها لتسجيل الدخول إلى أجهزة الكمبيوتر الصغيرة في Call Computer. كلف Alex Kamradt بالتصميم وباع عددًا صغيرًا منها من خلال شركته. بصرف النظر عن اهتمامهم بالتكنولوجيا الحديثة ، يبدو أن الدافع وراء Steves كان له مصدر آخر. في مقالته من ساتوري إلى وادي السيليكون (نُشر عام 1986) ، أوضح المؤرخ الثقافي ثيودور روسزاك أن شركة Apple Computer ظهرت من داخل الثقافة المضادة للساحل الغربي والحاجة إلى إنتاج المطبوعات وملصقات الرسائل وقواعد البيانات. يقدم Roszak القليل من الخلفية حول تطوير النموذجين الأوليين لستيفيز.

في عام 1975 ، بدأ Steves بحضور اجتماعات نادي Homebrew Computer Club. [14] ألهمت الحواسيب الصغيرة الجديدة مثل Altair 8800 و IMSAI Wozniak لبناء معالج دقيق في محطة الفيديو الخاصة به والحصول على كمبيوتر كامل. في ذلك الوقت ، كانت وحدات المعالجة المركزية للحواسيب الصغيرة الوحيدة المتاحة عمومًا هي 179 دولارًا Intel 8080 (ما يعادل 861 دولارًا في عام 2020) ، و 170 دولارًا من Motorola 6800 (أي ما يعادل 818 دولارًا في عام 2020). فضل وزنياك 6800 ، لكن كلاهما كان خارج النطاق السعري. لذلك شاهد ، وتعلم ، وصمم أجهزة الكمبيوتر على الورق ، في انتظار اليوم الذي يمكنه فيه تحمل تكلفة وحدة المعالجة المركزية.

عندما أصدرت MOS Technology شريحة 6502 بقيمة 20 دولارًا (ما يعادل 91 دولارًا في عام 2020) في عام 1976 ، كتبت Wozniak نسخة من BASIC لها ، ثم بدأت في تصميم جهاز كمبيوتر لتشغيلها. تم تصميم 6502 من قبل نفس الأشخاص الذين صمموا 6800 ، كما ترك العديد في Silicon Valley أرباب العمل لتشكيل شركاتهم الخاصة. احتاج الكمبيوتر الورقي 6800 من وزنياك إلى تغييرات طفيفة فقط ليعمل على الشريحة الجديدة.

بحلول 1 مارس 1976 ، أكمل وزنياك الآلة وأخذها إلى اجتماع Homebrew Computer Club لعرضها. [15] عندما رأى جوبز حاسوب وزنياك ، والذي عرف فيما بعد باسم آبل 1 ، كان مهتمًا على الفور بإمكانياته التجارية. [16] في البداية ، كان وزنياك ينوي مشاركة مخططات الآلة مجانًا ، لكن جوبز أصر على أنه ينبغي بدلاً من ذلك بناء وبيع لوحات الدوائر المطبوعة للكمبيوتر. [17] كما عرض وزنياك التصميم في الأصل على شركة Hewlett-Packard (HP) ، حيث كان يعمل في ذلك الوقت ، ولكن الشركة رفضته في خمس مناسبات. [18] في النهاية أقنع جوبز وزنياك بالذهاب إلى العمل معًا وبدء شركة جديدة خاصة بهم. [19] من أجل جمع الأموال التي يحتاجونها لإنتاج الدفعة الأولى من لوحات الدوائر المطبوعة ، باع جوبز حافله الصغير فولكس فاجن من النوع 2 مقابل بضع مئات من الدولارات ، وباع وزنياك آله الحاسبة القابلة للبرمجة HP-65 مقابل 500 دولار. [17] [15] [20] [21]

تعديل تشكيل شركة Apple I والشركة

في 1 أبريل 1976 ، تأسست شركة Apple Computer على يد ستيف جوبز وستيف وزنياك ورونالد واين. [23] [19] تم تسجيل الشركة كشراكة تجارية في كاليفورنيا. [24] وافق واين ، الذي عمل في أتاري كمسؤول رسام ، على أن يصبح مؤسسًا مشاركًا للشركة مقابل حصة قدرها 10٪. [25] [19] [1] ومع ذلك ، كان واين خجولًا إلى حد ما بسبب فشل مشروعه الخاص قبل أربع سنوات. في 12 أبريل ، بعد أقل من أسبوعين من تشكيل الشركة ، غادر واين شركة آبل ، باعًا حصته البالغة 10٪ إلى شركتي Steves مقابل 800 دولار فقط وتركهما كمؤسسين أساسيين نشطين. [26] [27]

وفقًا لـ Wozniak ، اقترح جوبز اسم "كمبيوتر Apple" عندما عاد لتوه من مزرعة All-One لروبرت فريدلاند في ولاية أوريغون. [27] قال جوبز لوالتر إيزاكسون إنه كان "يتبع أحد وجباتي الغذائية المثمرة" عندما تصور الاسم وفكر "بدا الأمر ممتعًا ومفعمًا بالحيوية وغير مخيف. بالإضافة إلى ذلك ، سوف يجعلنا نتقدم على أتاري في دفتر الهاتف. . " [28]

بعد فترة وجيزة من تشكيل الشركة ، قام الاثنان برحلة أخيرة إلى Homebrew Computer Club وعرضا النسخة النهائية من Apple I. [29] Paul Terrell ، الذي كان يدير سلسلة متاجر كمبيوتر تسمى بايت شوب، وكان حاضرا ، وأعجب بالآلة. [25] سلم الزوجين بطاقته وطلب منهم "البقاء على اتصال". [30] في اليوم التالي ، ذهب جوبز إلى تيريل في متجر Byte Shop في ماونتن فيو ، وحاول بيعه لوحات الدوائر العارية لأجهزة Apple I. [27] أخبر تيريل جوبز أنه كان مهتمًا بشراء الجهاز ، ولكن فقط إذا تم تجميعه بالكامل ، قائلاً إنه سيطلب 50 جهاز كمبيوتر مُجمَّعًا وسيدفع 500 دولار أمريكي لكل منها عند التسليم (ما يعادل 2300 دولار أمريكي في عام 2020). [31] [32] [25] ثم أخذ جوبز أمر الشراء الذي كان قد أعطاه له من متجر Byte إلى Cramer Electronics ، وهو موزع وطني للأجزاء الإلكترونية ، وأمر بالمكونات التي يحتاجها لتجميع Apple I. مدير الائتمان المحلي سأل جوبز كيف كان سيدفع ثمن الأجزاء فأجاب ، "لدي أمر الشراء هذا من سلسلة متاجر Byte Shop لمتاجر الكمبيوتر لـ 50 من أجهزة الكمبيوتر الخاصة بي وشروط الدفع هي COD. إذا أعطيتني الأجزاء على الشبكة 30 بشروط يومية يمكنني إنشاء أجهزة الكمبيوتر وتسليمها في ذلك الإطار الزمني ، وجمع أموالي من Terrell في Byte Shop ودفعها لك ". [33] [34]

دعا مدير الائتمان Paul Terrell ، الذي كان يحضر مؤتمر IEEE للكمبيوتر في Asilomar في Pacific Grove وتحقق من صحة أمر الشراء. مندهشا من مثابرة جوبز ، أكد تيريل لمدير الائتمان إذا ظهرت أجهزة الكمبيوتر في متاجره ، فسيتم الدفع لجوبز وسيكون لديه أكثر من المال الكافي لدفع ثمن طلب قطع الغيار. قضى الاثنان Steves وطاقمهم الصغير ليلاً ونهارًا في بناء واختبار أجهزة الكمبيوتر ، وتم تسليمها إلى Terrell في الوقت المحدد للدفع لمورديه. تفاجأ تيريل عندما سلمه جوبز مجموعة من لوحات الدوائر المجمعة ، حيث كان يتوقع أجهزة كمبيوتر كاملة مع علبة وشاشة ولوحة مفاتيح. [35] [36] ومع ذلك ، أوفى تيريل بوعده ودفع لستيفيز الأموال التي وعدهما بها. [37] [35] [36] [38]

تم طرح Apple I للبيع في يوليو 1976 كلوحة دائرة مجمعة بسعر التجزئة 666.66 دولارًا. [39] [40] [41] قال وزنياك لاحقًا إنه ليس لديه فكرة عن العلاقة بين الرقم وعلامة الوحش ، وأنه توصل إلى السعر لأنه يحب "تكرار الأرقام". [37] في النهاية ، تم بيع حوالي 200 وحدة من Apple I. [42]

يحتوي كمبيوتر Apple I على بعض الميزات البارزة. أحدها هو استخدام التلفزيون كنظام عرض ، في حين أن العديد من الأجهزة لا تحتوي على شاشة على الإطلاق. لم يكن هذا مثل عرض الأجهزة اللاحقة ، ومع ذلك تم عرض النص بمعدل 60 حرفًا في الثانية. ومع ذلك ، كان هذا لا يزال أسرع من الطابعات عن بعد المستخدمة في الآلات المعاصرة في تلك الحقبة. قامت Apple I أيضًا بتضمين رمز bootstrap على ROM ، مما سهل بدء التشغيل. أخيرًا ، بناءً على إصرار Paul Terrell ، صمم Wozniak أيضًا واجهة كاسيت لتحميل البرامج وحفظها بسرعة 1200 بت / ثانية. على الرغم من أن الآلة كانت بسيطة إلى حد ما ، إلا أنها كانت تحفة فنية في التصميم ، باستخدام أجزاء أقل بكثير من أي شيء في فئتها ، وسرعان ما اكتسبت وزنياك سمعة كمصمم رئيسي.

بتشجيع من نجاح Apple I ، بدأ جوبز في البحث عن استثمارات لتوسيع نطاق الأعمال ، [36] لكن البنوك كانت مترددة في إقراضه المال ، بدت فكرة الكمبيوتر للناس العاديين سخيفة في ذلك الوقت. في أغسطس 1976 ، اتصل جوبز برئيسه السابق في أتاري ، نولان بوشنيل ، الذي أوصى بأن يلتقي مع دون فالنتين ، مؤسس سيكويا كابيتال. [36] لم يكن فالنتين مهتمًا بتمويل شركة آبل ، ولكنه بدوره قدم جوبز إلى مايك ماركولا ، المليونير الذي عمل تحت إشرافه في شركة Fairchild Semiconductor. [36] ماركولا ، على عكس فالنتين ، رأى إمكانات كبيرة في ستيفين ، وقرر أن يصبح مستثمرًا ملاكًا لشركتهما. [43] استثمر 92000 دولار في شركة Apple من ممتلكاته الخاصة بينما حصل على خط ائتمان بقيمة 250.000 دولار (ما يعادل 1.140.000 دولار في عام 2020) من بنك أمريكا. [43] [36] في مقابل استثماره ، حصل ماركولا على ثلث حصة في شركة آبل. [43] بمساعدة Markkula ، تم تأسيس شركة Apple Computer، Inc. في 3 يناير 1977. [36] اشترت الشركة الجديدة الشراكة القديمة التي شكلتها شركتا Steves قبل تسعة أشهر. [44]

في فبراير 1977 ، عين ماركولا مايكل سكوت من National Semiconductor ليكون أول رئيس ومدير تنفيذي لشركة Apple Computer ، حيث لم يكن كل من Jobs و Wozniak من ذوي الخبرة الكافية ولم يكن مهتمًا بتولي هذا المنصب بنفسه. [45] [46] في نفس الشهر ، استقال وزنياك من وظيفته في Hewlett-Packard للعمل بدوام كامل لشركة Apple. [44] [47]

Apple II Edit

بمجرد أن بدأت Apple في بيع أجهزة الكمبيوتر الأولى ، انتقلت Wozniak من Apple I وبدأت في تصميم جهاز كمبيوتر محسّن بشكل كبير: Apple II. [43] أكمل وزنياك نموذجًا أوليًا عمليًا للآلة الجديدة بحلول أغسطس 1976. [36] [48] قدم الاثنان جهاز كمبيوتر Apple II للجمهور في معرض West Coast Computer Faire في 16 و 17 أبريل 1977. في في اليوم الأول من المعرض ، قدم جوبز جهاز Apple II إلى كيميائي ياباني يُدعى توشيو ميزوشيما ، والذي أصبح أول وكيل معتمد لشركة Apple في اليابان. في عدد مايو 1977 من بايتقال وزنياك عن تصميم Apple II ، "بالنسبة لي ، يجب أن يكون الكمبيوتر الشخصي صغيرًا وموثوقًا ومريحًا للاستخدام وغير مكلف." [49]

تم طرح Apple II للبيع في 10 يونيو 1977 ، بسعر التجزئة 1،298 دولارًا. [50] كان الاختلاف الداخلي الرئيسي للكمبيوتر عن سابقه هو واجهة التلفزيون المعاد تصميمها بالكامل ، والتي احتفظت بالشاشة في الذاكرة. الآن ليس فقط مفيدًا لعرض النص البسيط ، فقد تضمن Apple II رسومات ، وأخيراً الألوان. أثناء تطوير Apple II ، ضغط جوبز للحصول على علبة بلاستيكية مصممة جيدًا ولوحة مفاتيح مدمجة ، مع فكرة أن الجهاز يجب أن يكون معبأ بالكامل وجاهزًا لنفاد الصندوق. [51] كان هذا هو الحال تقريبًا بالنسبة لأجهزة كمبيوتر Apple I ، ولكن لا يزال هناك حاجة لتوصيل أجزاء مختلفة معًا وكتابة الكود لتشغيل BASIC. أراد جوبز أن تكون حالة Apple II "بسيطة وأنيقة" ، واستأجر مصممًا صناعيًا يدعى Jerry Manock لإنتاج مثل هذا التصميم. [51] طور رود هولت ، الموظف رقم 5 في شركة آبل ، مصدر طاقة التحويل. [52]

في حين أن طرازات Apple II المبكرة تستخدم أشرطة كاسيت عادية كأجهزة تخزين ، فقد تم استبدالها في عام 1978 بإدخال محرك أقراص مرنة 5 + 1 4 بوصة وواجهة تسمى Disk II. [53] [54] تم تصميم نظام القرص الثاني بواسطة Wozniak وتم إصداره بسعر تجزئة يبلغ 495 دولارًا. [53]

في عام 1979 ، تم اختيار Apple II ليكون منصة سطح المكتب لأول "تطبيق قاتل" في عالم الأعمال: VisiCalc ، جدول بيانات. [53] من الأهمية بمكان أن Apple II أصبح ما وصفه John Markoff بأنه "ملحق VisiCalc" ، [55] أنشأ التطبيق سوقًا تجاريًا للكمبيوتر ومنح المستخدمين المنزليين سببًا إضافيًا لشرائه: التوافق مع المكتب. [53] قبل VisiCalc ، كانت شركة Apple في المركز الثالث بعيدًا عن منافس Commodore و Tandy. [56] [57]

كان Apple II واحدًا من أجهزة كمبيوتر "1977 Trinity" الثلاثة التي يُنسب إليها الفضل عمومًا في إنشاء سوق أجهزة الكمبيوتر المنزلية (والاثنان الآخران هما Commodore PET و Tandy Corporation TRS-80). [58] تم بناء عدد من النماذج المختلفة من Apple II بعد ذلك ، بما في ذلك Apple IIe و Apple IIع، [59] والتي استمرت في الاستخدام العام لما يقرب من عقدين من الزمن. استمرت سلسلة Apple II في بيع ما يقرب من ستة ملايين وحدة في المجموع قبل أن تتوقف في عام 1993. [60] [61]

Apple III Edit

بينما تم تأسيس Apple II بالفعل كنظام أساسي ناجح جاهز للأعمال بسبب VisiCalc ، لم تكن إدارة Apple راضية. تم تصميم Apple III للتعامل مع بيئة الأعمال في محاولة للتنافس مع شركة IBM في سوق حوسبة الشركات والشركات. [62] بينما بدأ تطوير Apple III في أواخر عام 1978 بتوجيه من Wendell Sander ، [63] تم تطوير الجهاز لاحقًا من قبل لجنة برئاسة ستيف جوبز. [64] تم الإعلان عن آبل 3 لأول مرة في 19 مايو 1980 ، بسعر تجزئة يتراوح من 4340 دولارًا إلى 7800 دولار أمريكي ، وتم إصداره في نوفمبر 1980. [64]

كان Apple III تصميمًا متحفظًا نسبيًا لأجهزة الكمبيوتر في ذلك العصر. ومع ذلك ، لم يرغب جوبز في أن يكون للكمبيوتر مروحة ، بل أراد أن تتبدد الحرارة الناتجة عن الإلكترونيات من خلال هيكل الجهاز ، متجاوزًا مروحة التبريد.

ومع ذلك ، لم يكن التصميم المادي للحالة كافيًا لتبريد المكونات الموجودة بداخلها. مع عدم وجود مروحة ، كان Apple III عرضة لارتفاع درجة الحرارة. تسبب هذا في فصل رقائق الدائرة المتكاملة عن اللوحة الأم. تم إخبار العملاء الذين اتصلوا بخدمة عملاء Apple "برفع أجهزة الكمبيوتر بمقدار ست بوصات في الهواء ، ثم تركها" ، مما قد يتسبب في عودة الدوائر المتكاملة إلى مكانها.

تم استدعاء الآلاف من أجهزة كمبيوتر Apple III. تم تقديم نموذج جديد في عام 1983 لمحاولة تصحيح المشاكل ، لكن الضرر قد حدث بالفعل.

تحرير IPO من Apple

في عدد يوليو 1980 من كيلوبود للحوسبة الدقيقة، صرح الناشر Wayne Green أن "أفضل إعلانات المستهلكين التي رأيتها كانت تلك التي تقدمها Apple. إنها تجذب الانتباه ، ويجب أن تحث على البيع." [65] في أغسطس ، أ الأوقات المالية تم كتابة تقرير بذلك

تخطط شركة Apple Computer ، الشركة المصنعة لأجهزة الكمبيوتر الصغيرة سريعة النمو في كاليفورنيا للمستهلكين والشركات والأسواق التعليمية ، لطرحها للاكتتاب العام في وقت لاحق من هذا العام. [إنها] أكبر شركة تصنيع خاصة لأجهزة الكمبيوتر الصغيرة في الولايات المتحدة. تأسست منذ حوالي خمس سنوات كعمل ورشة صغيرة ، وأصبحت ثاني أكبر شركة مصنعة لأجهزة الكمبيوتر الصغيرة ، بعد قسم راديو شاك التابع لشركة Tandy. [66]

في 12 ديسمبر 1980 ، أصبحت شركة Apple (رمز المؤشر "AAPL") تبيع 4.6 مليون سهم بسعر 22 دولارًا للسهم الواحد (10 دولارات أمريكية للسهم الواحد عند التعديل لتقسيم الأسهم اعتبارًا من 30 نوفمبر 2020 [تحديث]) ، [67] توليد أكثر من 100 مليون دولار ، وهو رأس مال أكبر من أي اكتتاب عام أولي منذ شركة فورد موتور في عام 1956. [68] قام العديد من أصحاب رؤوس الأموال بجني المليارات من أرباح رأس المال طويلة الأجل. بحلول نهاية اليوم ، ارتفع السهم إلى 29 دولارًا للسهم وتم إنشاء 300 مليونير. [69] بلغت القيمة السوقية لشركة آبل 1.778 مليار دولار في نهاية اليوم الأول من التداول. [68] [69]

في يناير 1981 ، عقدت شركة Apple أول اجتماع للمساهمين كشركة عامة في مركز فلينت ، قاعة كبيرة في كلية De Anza القريبة (والتي غالبًا ما تستخدم لحفلات السيمفونية) للتعامل مع أعداد أكبر من المساهمين بعد الاكتتاب العام. تم التخطيط لأعمال الاجتماع بحيث يمكن إجراء التصويت في 15 دقيقة أو أقل. في معظم الحالات ، يتم جمع وكلاء التصويت عن طريق البريد ويتم احتساب أيام أو شهور قبل الاجتماع. في هذه الحالة ، بعد الاكتتاب العام ، كانت العديد من الأسهم في أيدي جديدة.

بدأ ستيف جوبز خطابه المُعد ، ولكن بعد مقاطعته بالتصويت عدة مرات ، تخلى عن خطابه المُعد وألقى حديثًا طويلًا مشحونًا عاطفياً حول الخيانة ، وعدم الاحترام ، والمواضيع ذات الصلة. [70]

المنافسة من IBM PC Edit

بحلول آب (أغسطس) 1981 ، كانت شركة Apple من بين أكبر ثلاث شركات للحواسيب الصغيرة ، وربما بعد أن حلت محل راديو شاك كرائد [71] ، تجاوزت الإيرادات في النصف الأول من العام 118 مليون دولار في الثمانينيات ، و إنفوورلد ذكرت أن نقص الطاقة الإنتاجية كان يعيق النمو. [72] نظرًا لقيام شركات VisiCalc بشراء 90٪ من Apple IIs [73] [74] فضل كبار العملاء بشكل خاص شركة Apple. [75]

دخلت شركة آي بي إم سوق أجهزة الكمبيوتر الشخصية في ذلك الشهر مع كمبيوتر آي بي إم [76] [77] ويرجع ذلك جزئيًا إلى أنها لم تكن تريد منتجات بدون شعارات آي بي إم على مكاتب العملاء ، [78] ولكن لدى أبل العديد من المزايا. بينما بدأت شركة IBM بحاسوب صغير واحد ، مع القليل من الأجهزة أو البرامج المتاحة ، وبضع مئات من التجار ، كان لدى Apple خمسة أضعاف عدد التجار في الولايات المتحدة وشبكة توزيع دولية راسخة. كان لدى Apple II قاعدة مثبتة لأكثر من 250.000 عميل ، وقدم مئات من المطورين المستقلين برامج وأجهزة طرفية على الأقل عشر قواعد بيانات وعشرة معالجات نصوص متوفرة ، في حين أن الكمبيوتر الشخصي لا يحتوي على قواعد بيانات ومعالج نصوص واحد. [79]

اكتسب عملاء الشركة سمعة طيبة في التفاني والولاء. BYTE في عام 1984 ذكر أن [80]

هناك نوعان من الأشخاص في العالم: الأشخاص الذين يقولون إن Apple ليست مجرد شركة ، إنها قضية والأشخاص الذين يقولون إن Apple ليست قضية ، إنها مجرد شركة. كلا المجموعتين على حق. علقت الطبيعة مبدأ عدم التناقض فيما يتعلق بشركة Apple. تعد شركة Apple أكثر من مجرد شركة لأن تأسيسها يتمتع ببعض صفات الأسطورة. أبل شخصان يعملان في مرآب لتصليح السيارات يضطلعان بمهمة جلب قوة الحوسبة ، التي كانت محفوظة في السابق للشركات الكبرى ، للأفراد العاديين ذوي الميزانيات العادية. يجسد نمو الشركة من شخصين إلى شركة تبلغ قيمتها مليار دولار الحلم الأمريكي. حتى كشركة كبيرة ، تلعب شركة آبل دور ديفيد في دور جالوت من شركة آي بي إم ، وبالتالي فإن لها دورًا متعاطفًا في تلك الأسطورة.

وأشارت المجلة إلى أن الولاء لم يكن إيجابيًا تمامًا ، حيث كان عملاء آبل على استعداد للتغاضي عن عيوب حقيقية في منتجاتها ، حتى أثناء مقارنة الشركة بمستوى أعلى من المنافسين. [80] كانت Apple III مثالاً على سمعتها الاستبدادية بين التجار [75] والتي وصفها أحدهم بأنها "غطرسة أبل". [81] بعد فحص جهاز كمبيوتر ووجد أنه غير مثير للإعجاب ، اشترت شركة Apple بثقة إعلانًا على صفحة كاملة بتنسيق صحيفة وول ستريت جورنال مع العنوان "مرحبًا بكم ، آي بي إم. بجدية". [82] [77] أعطت الشركة الأولوية للثالث لمدة ثلاث سنوات ، حيث أنفقت ما يقدره وزنياك بـ 100 مليون دولار على التسويق والبحث والتطوير مع عدم تحسين Apple II للتنافس مع الكمبيوتر الشخصي ، لأن القيام بذلك قد يضر بالمبيعات الثالثة. [74]

كان بيل جيتس ، رئيس شركة مايكروسوفت ، في المقر الرئيسي لشركة آبل يوم إعلان شركة آي بي إم ، وقال لاحقًا "لا يبدو أنهم مهتمون. لقد استغرق الأمر منهم عامًا كاملاً ليدركوا ما حدث". [77] أنهى الكمبيوتر الشخصي تقريبًا مبيعات III ، أكثر منتجات الشركة مقارنة. لا يزال جهاز II يباع بشكل جيد ، [78] ولكن بحلول عام 1983 تجاوزه جهاز الكمبيوتر باعتباره جهاز الكمبيوتر الشخصي الأكثر مبيعًا. [83] قامت شركة IBM بتوظيف أفضل وكلاء Apple مع تجنب السوق الرمادية المخفّضة التي لا يحبونها. [78] قال رئيس سلسلة متاجر البيع بالتجزئة "يبدو أن شركة IBM لديها فهم أفضل لسبب نجاح Apple II من Apple". [75] تنبأ جين أمدال بأن شركة آبل ستكون واحدة من "الشركات الناشئة العديدة" التي هزمت شركة آي بي إم. [84]

بحلول عام 1984 ، وصفت الصحافة الشركتين بالمنافسين الرئيسيين ، [85] ولكن كان لشركة آي بي إم 4 مليارات دولار من العائدات السنوية لأجهزة الكمبيوتر الشخصية ، أي أكثر من ضعف عائدات شركة آبل ومبيعاتها والشركات الثلاث التالية مجتمعة. [86] أ حظ وجد الاستطلاع أن 56 ٪ من الشركات الأمريكية التي لديها أجهزة كمبيوتر شخصية تستخدم أجهزة كمبيوتر IBM ، مقارنة بـ 16 ٪ لشركة Apple. [87] أصبحت الشركات الصغيرة والمدارس وبعض المنازل السوق الأساسي للثاني. [73]

Xerox PARC و Lisa Edit

ركز قسم أعمال Apple Computer على Apple III ، وهو تكرار آخر للكمبيوتر المستند إلى النص. Simultaneously the Lisa group worked on a new machine that would feature a completely different interface and introduce the words mouse, icon، و desktop into the lexicon of the computing public. In return for the right to buy US$1,000,000 of pre-IPO stock, Xerox granted Apple Computer three days access to the PARC facilities. After visiting PARC, they came away with new ideas that would complete the foundation for Apple Computer's first GUI computer, the Apple Lisa. [88] [89] [90] [91]

The first iteration of Apple's WIMP interface was a floppy disk where files could be spatially moved around. After months of usability testing, Apple designed the Lisa interface of windows and icons.

The Lisa was introduced in 1983 at a cost of US$9,995 (equivalent to $26,000 in 2020). Because of the high price, Lisa failed to penetrate the business market.

Macintosh and the "1984" commercial Edit

By 1984 computer dealers saw Apple as the only clear alternative to IBM's influence [92] some even promoted its products to reduce dependence on the PC. [78] The company announced the Macintosh 128k to the press in October 1983, followed by an 18-page brochure included with magazines in December. [93] Its debut, however, was announced by a single national broadcast of a US$1.5 million television commercial, "1984" (equivalent to $3,700,000 in 2020). It was directed by Ridley Scott, aired during the third quarter of Super Bowl XVIII on January 22, 1984, [94] and is now considered a "watershed event" [95] and a "masterpiece." [96] 1984 used an unnamed heroine to represent the coming of the Macintosh (indicated by her white tank top with a Picasso-style picture of Apple's Macintosh computer on it) as a means of saving humanity from "conformity" (Big Brother). [97] These images were an allusion to George Orwell's noted novel, الف وتسعمائة واربعة وثمانون, which described a dystopian future ruled by a televised "Big Brother." The commercial ended with the words: "On January 24th, Apple Computer will introduce Macintosh. And you'll see why 1984 won't be like 1984.” [98]

On January 24, 1984, the Macintosh went on sale with a retail price of $2,495. [99] [100] It came bundled with two applications designed to show off its interface: MacWrite and MacPaint. On the same day, an emotional Jobs introduced the computer to a wildly enthusiastic audience at Apple's annual shareholders meeting held in the Flint Auditorium [101] [102] Macintosh engineer Andy Hertzfeld described the scene as "pandemonium". [103] Jobs had directed the development of the Macintosh since 1981, when he took over the project from early Apple employee Jef Raskin, who conceived the computer [104] [105] (Wozniak, who had crucial influence over the initial design and development of the program with Raskin, was on leave during this time due to an airplane crash earlier that year). [106] [107] The Macintosh was based on The Lisa (and Xerox PARC's mouse-driven graphical user interface), [108] [109] and it was widely acclaimed by the media with strong initial sales supporting it. [110] [111] However, the computer's slow processing speed and limited range of available software led to a rapid sales decline in the second half of 1984. [110] [111] [112]

The Macintosh was too radical for some, who labeled it a mere "toy". Because the machine was entirely designed around the GUI, existing text-mode and command-driven applications had to be redesigned and the programming code rewritten this was a challenging undertaking that many software developers shied away from, and resulted in an initial lack of software for the new system. In April 1984 Microsoft's MultiPlan migrated over from MS-DOS, followed by Microsoft Word in January 1985. [113] In 1985, Lotus Software introduced Lotus Jazz after the success of Lotus 1-2-3 for the IBM PC, although it was largely a flop. [114] Apple introduced Macintosh Office the same year with the lemmings ad, infamous for insulting potential customers. It was not successful. [115]

For a special post-election edition of نيوزويك in November 1984, Apple spent more than US$2.5 million to buy all 39 of the advertising pages in the issue. [116] Apple also ran a "Test Drive a Macintosh" promotion, in which potential buyers with a credit card could take home a Macintosh for 24 hours and return it to a dealer afterwards. While 200,000 people participated, dealers disliked the promotion, the supply of computers was insufficient for demand, and many were returned in such a bad shape that they could no longer be sold. This marketing campaign caused CEO John Sculley to raise the price from US$1,995 (equivalent to $5,000 in 2020) to US$2,495 (equivalent to $6,200 in 2020). [115] The Macintosh also spawned the concept of Mac evangelism, which was pioneered by Apple employee, and later Apple Fellow, Guy Kawasaki. [ بحاجة لمصدر ]

1985: Jobs and Wozniak leave Apple Edit

By early 1985, the Macintosh's failure to defeat the IBM PC became clear. [110] [111] This triggered a power struggle between Steve Jobs and CEO John Sculley, who had been hired two years earlier by Jobs [117] [118] using the famous line, "Do you want to sell sugar water for the rest of your life or come with me and change the world?" [119] Sculley and Jobs' visions for the company greatly differed. The former favored open architecture computers like the Apple II, sold to education, small business, and home markets less vulnerable to IBM. Jobs wanted the company to focus on the closed architecture Macintosh as a business alternative to the IBM PC. President and CEO Sculley had little control over Chairman of the Board Jobs' Macintosh division it and the Apple II division operated like separate companies, duplicating services. [120] Although its products provided 85% of Apple's sales in early 1985, the company's January 1985 annual meeting did not mention the Apple II division or employees. This frustrated Wozniak, who left active employment at Apple early that same year to pursue other ventures, stating that the company had "been going in the wrong direction for the last five years" and sold most of his stock. [121] [122] [123] Despite these grievances, Wozniak left the company amicably and as of January 2018 continues to represent Apple at events or in interviews, [122] receiving a stipend over the years for this role estimated in 2006 to be $120,000 per year. [124]

In April 1985, Sculley decided to remove Jobs as the general manager of the Macintosh division, and gained unanimous support from the Apple board of directors. [125] [117] Rather than submit to Sculley's direction, Jobs attempted to oust him from his leadership role at Apple. [126] Informed by Jean-Louis Gassée, Sculley found out that Jobs had been attempting to organize a coup and called an emergency executive meeting at which Apple's executive staff sided with Sculley and stripped Jobs of all operational duties. [126]

Jobs, while taking the position of Chairman of the firm, had no influence over Apple's direction and subsequently resigned from Apple in September 1985 and took a number of capable Apple employees with him to found NeXT Inc. [127] In a show of defiance at being set aside by Apple Computer, Jobs sold all but one of his 6.5 million shares in the company for $70 million. Jobs then acquired the visual effects house, Pixar for $5M (equivalent to $11,800,000 in 2020). NeXT Inc. would build computers with futuristic designs and the UNIX-derived NEXTSTEP operating system. NeXTSTEP would eventually be developed into Mac OS X. While not a commercial success, due in part to its high price, the NeXT computer would introduce important concepts to the history of the personal computer (including serving as the initial platform for Tim Berners-Lee as he was developing the World Wide Web). [128]

Sculley reorganized the company, unifying sales and marketing in one division and product operations and development in another. [129] [120] Despite initial marketing difficulties, the Macintosh brand was eventually a success for Apple. This was due to its introduction of desktop publishing (and later computer animation) through Apple's partnership with Adobe Systems, which introduced the laser printer and Adobe PageMaker. Indeed, the Macintosh would become known as the de facto platform for many industries including cinema, music, advertising, publishing, and the arts.


Who All Contributed To The Invention Of Computer?

There are also many computer scientists who have contributed to the creation of computers. Among them are the authors of the C programming language, the creators of the UNIX operating system, the authors of the ‘Unix kernel’, and many more.

The question, “Who invented the computer scientist?” gets very vague. It involves lots of different people with different areas of expertise, and that leads to a lot of question marks.

We can get a little closer to answering this question, by looking at the history of a person’s system. One example is that of Howard Garth, the inventor of UNIX, the predecessor of the UNIX operating system. We know that Garth came up with the idea of making a single operating system that would run all of the computers at a company.

That way, all of the machines would share the same program, and there wouldn’t be any duplication. Garth built a system that he claimed was unique. That’s the reason he became famous – he did something nobody else had done before.


1835-1900s: first programmable machines

The defining feature of a "universal computer" is programmability, which allows the computer to emulate any other calculating machine by changing a stored sequence of instructions.

In 1835 Charles Babbage described his analytical engine. It was the plan of a general-purpose programmable computer, employing punch cards for input and a steam engine for power. One crucial invention was to use gears for the function served by the beads of an abacus. In a real sense, computers all contain automatic abacuses (technically called the ALU or floating-point unit).

His initial idea was to use punch-cards to control a machine that could calculate and print logarithmic tables with huge precision (a specific purpose machine). Babbage's idea soon developed into a general-purpose programmable computer, his analytical engine.

While his design was sound and the plans were probably correct, or at least debuggable, the project was slowed by various problems. Babbage was a difficult man to work with and argued with anyone who didn't respect his ideas. All the parts for his machine had to be made by hand and small errors in each item were summed up as huge discrepancies in a machine with thousands of parts. The project dissolved over disputes with the artisan who built parts and was ended with the depletion of government funding.

Ada Lovelace, Lord Byron's daughter, translated and added notes to the "Sketch of the Analytical Engine" by Federico Luigi, Conte Menabrea. She has become closely associated with Babbage. Some claim she is the world's first computer programmer, however this claim and the value of her other contributions are disputed by many.

A reconstruction of the Difference Engine II, an earlier, more limited design, has been operational since 1991 at the London Science Museum. With a few trivial changes, it works as Babbage designed it and shows that Babbage was right in theory.

Augusta Ada King, Countess of Lovelace

Following in the footsteps of Babbage, although unaware of his earlier work, was Percy Ludgate, an accountant from Dublin, Ireland. He independently designed a programmable mechanical computer, which he described in a work that was published in 1909.


Famous Inventors and their Inventions

Charles Babbage: The Analytical Engine

هل تود الكتابة لنا؟ حسنًا ، نحن نبحث عن كتاب جيدين يريدون نشر الكلمة. تواصل معنا وسنتحدث.

He is considered as the “Father of the Computer,” who invented an analytical engine in 1822. However, he couldn’t actually build the analytical engine, but was only able to present it theoretically. His unfinished work was completed by scientists in 1930. His concept of analytical engine was quite similar to the concepts of modern-day computers that include subroutines and input devices. It certainly laid the foundation of modern-day computers.

Alan Turing: The Turing Machine

Although, he did not design any computer, Alan Turing, an English mathematician and computer scientist has been one of the most influential personalities in the field of computer science. He provided a platform for formulating the basic concept of algorithm and destined the Turing machine, that was able to test the intelligence of a machine. In fact, he pioneered in the field of artificial intelligence. Today’s, CAPTCHA code test on Internet and computers has evolved from Turing’s ideas.

Konrad Zuse: The Z Series Computers

The German engineer, Konrad Zuse, in 1936, invented the first electrical binary programmable computer – the Z1, Z2, and Z3 were also introduced by Zuse in 1939 and 1941 respectively. Unfortunately, Zuse’s efforts were destroyed during second world war.

John Vincent Atanasoff & Clifford Berry: Atanasoff-Berry Computer (ABC)

Developed in the war phase of 1942, Atanasoff-Berry Computer (ABC) was the world’s first fully electronic digital computer. Its inventors, John Vincent Atanasoff & Clifford Berry shared the relationship of a professor and a student. John was an America electronics engineer while Clifford his student.

The US Army: ENIAC

Financed by the US army and developed by scientists John Presper Eckert & John W. Mauchly, in 1946, the Electronic Numerical Integrator and Computer (ENIAC) is considered to be the first mainstream digital computer ever made. In fact ABC and ENIAC fought a legal battle till 1973, when ABC was finally declared to be the 1st digital computer. ENIAC was mainly built for US army research laboratory.

Gordon Bell and Ken Olson: PDP (Programmed Data Processor)

They invented the PDP in the year 1960s. Gordon Bell designed the i/o system of the PDP-1. With time, there have been several versions of this machine, i.e., PDP-4, PDP-5, PDP-6,and PDP-11. As a part of the DEC (Digital Equipment Corporation), Gordon Bell later designed the VAX, which is DEC’s best computer.

What followed in years after 1950 is an amazing history of computer development. Further developments in the computer field led to the invention of transistor (by John Bardeen, Walter Brattain & Wiliam Shockley in 1956), integrated circuits (1959) and the computer processors by the iconic Intel. Then came the brilliant Bill Gates and the legendary Steve Jobs who changed the computer history.

In fact, internet history is also an integral part of the history of computer development as both can only coexist. You must have realized after reading this article that it is quite difficult to name any person for all computer growth. Computer development saga, in essence, is a magnificent example of impressive developments through re-invention, research, and innovation.

المنشورات ذات الصلة

Once you have figured out how to adjust your computer's display, you can add a personalized touch to your monitor's appearance. There are 5 main tabs that will help you&hellip

A computer server is used in almost every organization, school, etc. However, very few people know what exactly it is. This article will give you all the basics of computer&hellip

Often paid less attention to, a keyboard is one of the most important accessories of a computer, and should be bought while keeping certain tips in mind. Find these tips&hellip


Who Invented the First Computer?

Do you think Bill Gates invented the first computer? The reality is that computers were on the scene well before you think they were. The first computer was invented by Charles Babbage in 1838.

Babbage developed a mechanical calculator that had a simple storage mechanism and called it the Difference Engine in 1822. The device used punch cards to input instructions to the device steam engine as its source of power. The machine worked well to compute different numbers and make copies of the results that people could have in-hand. Although the device performed calculations well and even provided hard copies of its output, Charles Babbage lacked funds to develop a fully functional and complete device. Together with Ada Lovelace, considered by many as the first computer programmer, Babbage later developed another general purpose device and called it the Analytical Engine. This more advanced device had memory, flow control and an Arithmetic and Logic Unit. For his contributions to early computer science, he's often hailed as the father of computers.

What Happened to the Difference Machine?
Babbage's lack of funds shelved the difference machine until 1991 when London's Science Museum built it from Babbage's plans. The device worked, but it could only perform the most basic calculations. Additionally, it couldn't check the results, and it couldn't make any changes. The plans for the Analytical Engine weren't complete. The inventor's plans were a work in progress. If scientists are ever able to complete the plans and build the Analytical Engine, the machine may indeed prove the assertion that Babbage is the father of modern computing.

What About Alan Turing?
Alan Turing was a Ph.D. student attending Princeton University in 1936 when he published, On Computable Numbers, with an application to the Entscheidungsproblem. This paper is widely credited as the corner stone of computer science. Turing's hypothetical problem solving machine could solve any and every problem for which people could write a program. At the time, people performed the actions of computers. They did all the engineering calculations and compiled tables, all of which was at an extreme shortage during the early days of World War II. With the need for military calculations at an all time high, the United States built a 50-foot machine, the Harvard Mark 1, which could do complex calculations that took people hours in a matter of seconds. Turing designed a machine, the Bombe, that enabled the British to read the traffic coming from the German Navy, a contribution that Eisenhower later said may have shaved two years off the war. Turing continued his involvement in these very early computers, and he later envisioned computers becoming more powerful with artificial intelligence (AI) becoming a reality. To help distinguish between computer and AI, he developed the Turing Test.

The Dawn of the PC
The earliest computers were huge. An entire team of specialists were devoted to keeping them running. After World War II, one of the most important inventions came to market. The microprocessor, which was developed by Ted Hoff, an Intel engineer in 1971, paved the way for those huge early computers to shrink down. And the personal computer (PC) was soon born. The Altair was a PC kit debuted in 1974 from company Micro Instrumentation and Telemetry Systems. It wasn't until Harvard students Bill Gates and Paul G. Allen invented BASIC programming that the PC became easier to use. The duo took the money they earned from the endeavor to form their own company: Microsoft.


1900 to 1945

IBM&rsquos tabulating machines were so advanced in the 1920s that newspapers such as the نيويورك وورلد described them as &ldquosuper computers&rdquo. In 1941, Konrad Zuse invented the Z3, which was the first programmable calculator. This device used the binary system as opposed to the decimal system that was used in earlier calculators. The binary system played a pivotal role in the future design of computers. Almost at the same time, American Howard Aiken and several IBM engineers constructed a large automatic digital computer called Harvard Mark I.


Invention of the PC - HISTORY

We have gone from the vacuum tube to the transistor, to the microchip. Then the microchip started talking to the modem. Now we exchange text, sound, photos and movies in a digital environment.

Computing milestones and machine evolution:

  • 14th C. - Abacus - an instrument for performing calculations by sliding counters along rods or in grooves (graphic: Merriam Webster Collegiate Dictionary http://www.m-w.com/mw/art/abacus.htm)
  • 17th C. - Slide rule - a manual device used for calculation that consists in its simple form of a ruler and a movable middle piece which are graduated with similar logarithmic scales (Picture from the The Museum of HP Calculators)
  • 1642 - Pascaline--a mechanical calculator built by Blaise Pascal, a 17th century mathematician, for whom the Pascal computer programming language was named .
  • 1804 - Jacquard loom - a loom programmed with punched cards invented by Joseph Marie Jacquard
  • ca 1850 - Difference Engine , Analytical Engine - Charles Babbage and Ada Byron (See her picture.). Babbage's description, in 1837, of the Analytical Engine, a hand cranked, mechanical digital computer anticipated virtually every aspect of present-day computers. It wasn't until over a 100 years later that another all purpose computer was conceived. Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace.
  • 1939 -1942 - Atanasoff Berry Computer - built at Iowa State by Prof. John V. Atanasoff and graduate student Clifford Berry. Represented several "firsts" in computing, including a binary system of of arithmetic, parallel processing, regenerative memory, separation of memory and computing functions, and more. Weighed 750 lbs. and had a memory storage of 3,000 bits (0.4K). Recorded numbers by scorching marks into cards as it worked through a problem. See diagram.
  • 1940s - Colossus - a vacuum tube computing machine which broke Hitler's codes during WW II. It was instrumental in helping Turing break the German's codes during WW II to turn the tide of the war. In the summer of 1939, a small group of scholars became codebreakers, working at Bletchley Part in England. This group of pioneering codebreakers helped shorten the war and changed the course of history. See the the Bletchley Park Web site and its history. See more information on Codes and Ciphers in the Second World War at Tony Sales' site.
  • 1946 - ENIAC - World's first electronic, large scale, general-purpose computer, built by Mauchly and Eckert, and activated at the University of Pennsylvania in 1946. ENIAC recreated on a modern computer chip. See an explanation of ENIAC on a Chip by the Moore School of Electrical Engineering, University of Pennsylvania. The ENIAC is a 30 ton machine that measured 50 x 30 feet. It contained 19,000 vacuum tubes, 6000 switches, and could add 5,000 numbers in a second, a remarkable accomplishment at the time. A reprogrammable machine, the ENIAC performed initial calculations for the H-bomb. It was also used to prepare artillery shell trajectory tables and perform other military and scientific calculations. Since there was no software to reprogram the computer, people had to rewire it to get it to perform different functions. The human programmers had to read wiring diagrams and know what each switch did. J. Presper Eckert, Jr. and John W. Mauchly drew on Alansoff's work to create the ENIAC, the Electronic Numerical Integrator and Computer.
  • 1951-1959 - vacuum tube based technology. Vacuum Tubes are electronic devices, consisting of a glass or steel vacuum envelope and two or more electrodes between which electrons can move freely. First commercial computers used vacuum tubes: Univac, IBM 701.
  • 1950s -1960s - UNIVAC - "punch card technology" The first commercially successful computer, introduced in 1951 by Remington Rand. Over 40 systems were sold. Its memory was made of mercury filled acoustic delay lines that held 1,000 12 digit numbers. It used magnetic tapes that stored 1MB of data at a density of 128 cpi. UNIVAC became synonymous with computer (for a while). See UNIVAC photo . See UNIVAC flow chart
  • 1960 IBM 1620 - See photos at The Computer History Museum.
  • 1960-1968 - transistor based technology. The transistor, invented in 1948, by Dr. John Bardeen, Dr. Walter Brattain, and Dr. William Shockley . It almost completely replaced the vacuum tube because of its reduced cost, weight, and power consumption and its higher reliability. See explanation and diagram of a transistor and what the first transistor looked like. The transistor is made to alter its state from a starting condition of conductivity (switched 'on', full current flow) to a final condition of insulation (switched 'off', no current flow).
  • 1969 - The Internet, originally the ARPAnet (Advanced Research Projects Agency network), began as a military computer network.
  • 1969-1977 - integrated circuits (IC) based technology. The first integrated circuit was demonstrated by Texas Instruments inventor, Jack Kilby, in 1958. It was 7/16" wide and contained two transistors. Examples of early integrated circuit technology: Intel 4004, Dec pdp 8, CRAY 1 (1976) - a 75MHz, 64-bit machine with a peak speed of 160 megaflops, (One million floating point operations per second) the world's fastest processor at that time. Now circuits may contain hundreds of thousands of transistors on a small piece of material, which revolutionized computing. Here is a diagram of a modern integrated circuit, known as a chip.
  • 1976 - CRAY 1 - The world's first electronic digital computer, developed in 1946. A 75MHz, 64-bit machine with a peak speed of 160 megaflops, (one million floating point operations per second) the world's fastest processor at that time.
  • 1976 - Apples/MACs - The Apple was designed by Steve Wozniak and Steve Jobs. Apple was the first to have a "windows" type graphical interface and the computer mouse. Like modern computers, early Apples had a peripheral keyboard and mouse, and had a floppy drive that held 3.5" disks.The Macintosh replaced the Apple. See a picture of the The Apple III (1980 - 1985).
  • 1978 to 1986 - large scale integration (LSI) Alto - early workstation with mouse Apple, designed by Steve Wozniak and Steve Jobs. Apple was the first to have a "windows" type graphical interface and the computer mouse. See Apple/MACs evolution over time. The PC and clone market begins to expand. This begins first mass market of desktop computers.
  • 1986 to today - the age of the networked computing, the Internet, and the WWW.
  • 1990 - Tim Berners-Lee invented the networked hypertext system called the World Wide Web.
  • 1992 - Bill Gates' Microsoft Corp. released Windows 3.1, an operating system that made IBM and IBM-compatible PCs more user-friendly by integrating a graphical user interface into the software. In replacing the old Windows command-line system, however, Microsoft created a program similar to the Macintosh operating system. Apple sued for copyright infringement, but Microsoft prevailed. Windows 3.1 went to Win 95, then Win 98, now Windows XP . (There are other OSs, of course, but Windows is the dominant OS today. MACs, by Apple, still have a faithful following. Linux has a faithful following.
  • 1995 - large commercial Internet service providers (ISPs), such as MCI, Sprint , AOL and UUNET, began offering service to large number of customers.
  • 1996 - Personal Digital Assistants (such as the Palm Pilot became available to consumers. They can do numeric calculations, play games and music and download information from the Internet. See How Stuff Works for a history and details.
    back to top

Charles Babbage (1792-1871) - Difference Engine, Analytical Engine. Ada Byron, daughter of the poet, Lord Byron, worked with him. His description, in 1837, of the Analytical Engine, a mechanical digital computer anticipated virtually every aspect of present-day computers. Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace.

Alan Turing -- 1912-1954. British Codebreaker. Worked on the Colossus (code breaking machine, precursor to the computer) and the ACE (Automatic Computing Engine). Noted for many brilliant ideas, Turing is perhaps best remembered for the concepts of the Turing Test for Artificial Intelligence and the Turing Machine, an abstract model for modeling computer operations. The Turing Test is the "acid test" of true artificial intelligence, as defined by the English scientist Alan Turing. In the 1940s, he said "a machine has artificial intelligence when there is no discernible difference between the conversation generated by the machine and that of an intelligent person." Turing was instrumental in breaking the German enigma code during WWII with his Bombe computing machine. The Enigma is a machine used by the Germans to create encrypted messages. See Turing's Treatise on Enigma.

More Information about the Enigma machine.

J. von Neumann -- (1903-1957). A child prodigy in mathematics, authored landmark paper explaining how programs could be stored as data. (Unlike ENIAC, which had to be re-wired to be re-programmed.). Virtually all computers today, from toys to supercomputers costing millions of dollars, are variations on the computer architecture that John von Neumann created on the foundation of the work of Alan Turing's work in the 1940s. It included three components used by most computers today: a CPU a slow-to-access storage area, like a hard drive and secondary fast-access memory (RAM ). The machine stored instructions as binary values (creating the stored program concept) and executed instructions sequentially - the processor fetched instructions one at a time and processed them. The instruction is analyzed, data is processed, the next instruction is analyzed, etc. Today "von Neumann architecture" often refers to the sequential nature of computers based on this model. See another von Neumann source.

John V. Atanasoff -- (1904 - 1995) - one of the contenders, along with Konrad Zuse and H. Edward Roberts and others, as the inventor of the first computer. The limited-function vacuum-tube device had limited capabilities and did not have a central. It was not programmable, but could solve differential equations using binary arithmetic. Atanasoff's Computer.

J. Presper Eckert, Jr. and John W. Mauchly completed the first programmed general purpose electronic digital computer in 1946. They drew on Alansoff's work to create the ENIAC, the Electronic Numerical Integrator and Computer. In 1973 a patent lawsuit resulted in John V. Atanasoff's being legally declared as the inventor. Though Atanasoff got legal status for his achievement, many historians still give credit to J. Presper Eckert, Jr., and John W. Mauchly the founding fathers of the modern computer. Eckert and Mauchly formed the first computer company in 1946. Eckert received 87 patents. They introduced the first modern binany computer with the Binary Automatic Computer (BINAC), which stored information on magnetic tape rather than punched cards. Their UNIVAC I ,was built for the U.S. Census Bureau. Their company was acquired by by Remington Rand, which merged into the Sperry Rand Corp. and then into Unisys Corp. Eckert retired from Unisys in 1989.

Konrad Zuse-- (1910-1995) German who, during WW II, designed mechanical and electromechanical computers. Zuse's Z1, his contender for the first freely programmable computer, contained all the basic components of a modern computer (control unit, memory, micro sequences, etc.). Zuse, because of the scarcity of material during WW II, used discarded video film as punch cards. Like a modern computer, it was adaptable for different purposes and used on/off switch relays, a binary system of 1s and 0s (on = 1, off = 0). Completed in 1938, it was destroyed in the bombardment of Berlin in WW II, along with the construction plans. In 1986, Zuse reconstructed the Z1.

H. Edward Roberts -- developed the MITS Altair 8800 in 1975. The Altair is considered by some to be the first microcomputer (personal computer)., The MITS Altair 8800 was based on a 2 MHz Intel 8080 chip, with 256 bytes, standard RAM. It was developed a year before the first Apple, by Steve Wozniak and Steve Jobs, came out. Paul Allen and Bill Gates (then a student at Harvard) wrote a scaled down version of the Basic programming language to run on the Altair , which was the beginning of Microsoft.

See details about the MITS Altair 8800 at the Computer Museum of America (http://www.computer-museum.org/collections/mits8800.html)

We can't talk about computers without mentioning:

The Birth of the Internet

The Internet, originally the ARPAnet (Advanced Research Projects Agency network), began as a military computer network in 1969. This network was an experimental project of the U.S. Department of Defense Advanced Research Projects Agency (DARPA).Other government agencies and universities created internal networks based on the ARPAnet model. The catalyst for the Internet today was provided by the National Science Foundation (NSF). Rather than have a physical communications connection from each institution to a supercomputing center, the NSF began a "chain" of connections in which institutions would be connected to their "neighbor" computing centers, which all tied into central supercomputing centers. This beginning expanded to a global network of computer networks, which allows computers all over the world to communicate with one another and share information stored at various computer "servers," either on a local computer or a computer located anywhere in the world. In 1986, came the birth of the National Science Foundation Network (NSFNET), which scientists across the country with five supercomputer centers. Universities were early users of the Internet. In 1992, the Internet was still primarily used by researchers and academics. In 1995, large commercial Internet service providers (ISPs), such as MCI, Sprint , AOL and UUNET, began offering service to large number of customers.

The Internet now links thousands of computer networks, reaching people all over the world. See this Atlas of Cyberspaces for graphical images of networks in cyberspace.

Since traffic on the Internet has become so heavy, some of the scientific and academic institutions that formed the original Internet developed a new global network called Internet 2. Known as the Abilene Project, and running on fast fiber-optic cable, it officially opened for business in February, 1999 at a ceremony in Washington, D.C.

George Mason University is one of 150 universities in the United States that are working on the Internet 2 project with industry through the University Corporation for Advanced Internet Development (UCAID) to improve the functionality and capabilities of the Internet. The network's 2.4 gigabit-per-second speed started with a transmission speed of 45,000 faster than a 56K modem.

1990 - Tim Berners-Lee, currently the director of the World Wide Web Consortium, the coordinating body for Web development, invented the World Wide Web. He occupies the 3Com Founders chair at the MIT Laboratory for Computer Science. The WWW was originally conceived and developed for the high-energy physics collaborations, which require instantaneous information sharing between physicists working in different universities and institutes all over the world. Now the WWW is used by people all over the world, children and adults, for personal, commercial, and academic uses. Berners-Lee and Robert Cailliau wrote the first WWW client and server software, defining Web addresses (URLs), hypertext transfer protocol (http) and hypertext markup language (html). Here is Tim Berners-Lee's original proposal to attempt to persuade CERN management to initiate a global hypertext system, which Berners-Lee called "Mesh" before he decided on the name "World Wide Web" when writing the code in 1990. In December 1993, Berners-Lee and Cailliau, along with Marc Andreesen and E. Bina of NCSA, shared the Association for Computing (ACM) Software System Award for developing the World-Wide Web. The graphical Web browser, Mosaic, evolved into Netscape.

The WWW is based on the hypertext protocol.

See CERN's overview of the WWW (What it is and its progress).

The ease of using the World Wide Web has made it easier for people to connect with one another, overcoming the obstacles of time and space. This networking has spawned numerous virtual communities and cybercultures. See this list of resources on cybercultures. The WWW has also become a convenient way to buy and sell services and goods.

The Internet and WWW do not come without ethical and legal ramifications, such as copyright infringement, computer spying and hacking, computer viruses, fraud, and privacy issues. See links to computer Ethics, Laws, Privacy Issues. Also see Internet copyright resources.

What's next?? - something interesting to ponder: Nanotechnology - K. Eric Drexler is the founding father of nanotechnology, the idea of using individual atoms and molecules to build living and mechanical "things" in miniature factories. His vision is that if scientists can engineer DNA on a molecular, why can't we build machines out of atoms and program them to build more machines? The requirement for low cost creates an interest in these "self replicating manufacturing systems," studied by von Neumann in the 1940's. These "nanorobots, " programmed by miniature computers smaller than the human cell, could go through the bloodstream curing disease, perform surgery, etc. If this technology comes about the barriers between engineered and living systems may be broken. Researchers at various institutions and organizations, like NASA and Xerox, are working on this technology.


Some of the Many Women Pioneers in Computing:

Ada Byron King - Portrait .Countess of Lovelace and daughter of the British poet, Lord Byron (1815-1852). - Ada was a mathematician and wrote extensive notes on Charles Babbage's calculating machine and suggested how the engine might calculate Bernoulli numbers. This plan, is now regarded as the first "computer program."Sketch of the Engine and notes by Ada Byron King, Countess of Lovelace. A software language developed by the U.S. Department of Defense was named "Ada" in her honor in 1979.

Edith Clarke (1883-1959) - At MIT, in June 1919, Clarke received the first Electrical Engineering degree awarded to a woman . She developed and disseminated mathematical methods that simplified calculations and reduced the time spent in solving problems in the design and operation of electrical power systems.

Grace Murray Hopper (1906-1992) - Hopper earned an MA in 1930 and a Ph.D. in 1934 in Mathematics, from Yale University. She retired from the Navy in 1967 with the rank of Rear Admiral. Hopper created a compiler system that translated mathematical code into machine language. Later versions, under her direction, the compiler became the forerunner to modern programming languages. She pioneered the integration of English into programs with the FLOW-MATIC. Hopper received the Computer Sciences "Man of The Year Award" in 1969. She was the first woman to be inducted into the Distinguished Fellow British Computer Society in 1973. The term "bug," an error or defect in software that causes a program to malfunction, originated, according to computer folklore, when Grace and her team found a dead moth that had been "zapped" by the relay and caused the device to fail.

Erna Hoover - invented a computerized switching system for telephone traffic. For this achievement, she was awarded the first software patent ever issued (Patent #3,623,007) on Nov. 23, 1971). She was the first female supervisor of a technical department (at Bell Labs).

Kay McNulty Mauchly Antonelli and Alice Burks - made calculations for tables of firing and bombing trajectories, as part of the war effort. This work prompted the development, in 1946, of the ENIAC, the world's first electronic digital computer.

Adele Goldstine - assisted in the creation of the ENIAC and wrote the manual to use it.

Joan Margaret Winters - scientific programmer in SLAC Computing Services at the Stanford Linear Accelerator Center, among other achievements.

Alexandra Illmer Forsythe (1918-1980) - .During the 1960's and 1970's, she co-authored a series of textbooks on computer science. She wrote the first computer science textbook.

Evelyn Boyd Granville - was one of the first African American women to earn a Ph.D. in Mathematics. During her career, she developed computer programs that were used for trajectory analysis in the Mercury Project (the first U.S. manned mission in space) and in the Apollo Project (which sent U.S. astronauts to the moon).

Timelines:
Computer History Time Line
Timeline of Events in Computer History
Computer Museums/History Sites:
Generations Through the History of Computing - Take a tour of companies and computers have led us to where we are today.
Triumph of the Nerds Online - companion to the PBS series
The Machine that Changed the World - companion Web site to video series (The book that accompanied the "Machine that Changed the World series: The Dream Machine: Exploring the Computer Age. Jon Palfreman and Doron Swade. BBC Books, London, 1991)
The Ada Project
UVA Computer Museum
VA Tech History of Computers


شاهد الفيديو: 4 AMAZING DIY INVENTIONS At Home (قد 2022).