DRAM(Trench)1. 소개DRAM은 Dynamic Random Access Memory의 약어로 임의 접근 기억장치(Random Access Memory)의 한 종류이다. Dynamic은 메모리칩이 데이터를 기억하기 위해 일정한 시간 안에 매 비트를 리프래시하는 것을 말하고, Random Access는 메모리 칩의 모든셀은 일정한 순서 없이 읽기/쓰기를 행하는 것을 말한다. 이는 순차적 메모리 장치와 반대된다.각각의 DRAM 비트는 1개의 트랜지스터와 캐패시터로 만들어지고 커패시터에 담긴 전하량에 의해 기록한다. 시간이 지나면서 축전기 전자가 누전되면서 기억된 정보를 잃는다. 이는 메모리 리프래시가 필요한 이유이다. 이 리프패시를 위한 제어회로가 컴퓨터에 탑재 되어야 한다. 회성 구성이 복잡해지지만 가격 면에서 저렴해진다. 그리고 한 비트를 구성하는데 SRAM은 여섯 개의 트랜지스터가 필요하지만 DRAM은 한 개의 트랜지스터와 한 개의 축전지만 있으면 되므로 고밀도 집적에 유리하다. DRAM은 임의의 억세스에 대해 고속으로 읽기, 쓰기가 가능하며, 읽고 쓰는데 걸리는 시간은 거의 같다. 또한 전력 소모가 작아 대용량 기억장치에 많이 사용된다. DRAM은 전원이 차단될 경우 저장되어 있는 자료가 소멸되는 특성이 있는 휘발성기억소자이다2. 동작원리DRAM(Dynamic RAM)의 데이터 저장 원리는 콘덴서가 전기를 저장하는 원리를 이용한다. 컴퓨터에서 데이터라고 하는 것은 실제로는 전기적인 신호의 흐름이다. 컴퓨터의 데이터는 1과 0으로 표현되고 이들은 각각 전기가 흐르는 상태와 흐르지 않는 상태를 의미한다.전기를 저장하는 매체 중 가장 흔한 것은 콘덴서 또는 배터리라고 불려지는 전자 부품이다. 예를 들어 10101010이란 데이터를 저장하기 위해서 8개의 콘덴서를 준비하고 다음과 같이1 0 1 0 1 0 1 0저장을 한다면 이는 곧 10101010이란 데이터를 저장한 것이다. 바로 이런 콘덴서의 원리를 이용하여 데이터를 저장하는 장치가 DRAM이다.그런데 (재충전) 작업을 하게된다. 컴퓨터를 끄면 RAM이 이런 리플래시를 할 수 없기 때문에 데이터를 상실하는 성질 즉, 휘발성의 성질을 가지는 것이다.2.1 쓰기(Writing)(1) NMOS의 gate(word line)에 Vg를 가해준다.(2) gate와 substrate 사이에 있는 oxide의 위쪽에는 (-)전하의 전자가 모인다.(3) 전기적으로 중성인 oxide의 한쪽으로 전자가 몰리므로 반대쪽은 +의 전하만 남겨져 substrate쪽은 (+)로 대전된다.(4) p-type 반도체에서 전자가 oxide쪽으로 몰려 oxide 바로 아래쪽에서 p-type이 n-type으로 바뀌는 type conversion이 발생하여 같은 캐리어로 전류가 이동할 수 있는 채널이 형성된다.(5) bit line에 전압을 가해주면 전압강하가 발생하여 커패시터에 전하가 저장된다. 만약 이미 전하가 저장되어 있는 커패시터이면 전압강하가 발생하지 않는다. 이 전압강하를 증폭시켜 cell 상태를 ‘high’ 또는 ‘low’로 구분한다.2.2 읽기(Reading)(1) bit line에 고전압과 저전압의 중간값의 전압을 걸어준다.(2) NMOS의 gate(word line)에 Vg를 가해준다.(3) 커패시터의 값이 bit line에 의해서 읽혀진다. 만약 커패시터가 충전되어 있었다면 bit line의 전압이 약간 증가하고 방전되어 있었다면 전압은 약간 감소할 것이다. 이 미세한 변화를 증폭기를 이용하여 읽는다.(4) 각 cell은 Reading과정이 끝난 후에 바로 다시 채워져야 정보가 손실되지 않으므로 bit line에 refresh amplifier이 연결되어 있다. refresh amplifier는 sense amplifer와 restore circuit으로 구성되어 있다. sense amplifier는 bit line의 level을 증폭하여 정보를 읽고 이를 증폭시켜 다시 cell로 보낸다. 이 과정을 row refresh라고 한다.3. 공정과정(Trench Capacitor)3efilling을 용이하게 하기 위해 하부로 갈수록 wall의 폭은 좁아져야 하며 소자의 작동 시에 형성되는 절연박막의 항복 전압이상으로 전기장이 형성되어 절연막이 파괴되는 것을 막기 위해 바닥의 trench 모서리가 가능한 한 굴곡을 가지는 부드러운 형상을 가져야 한다. 마지막으로 RIE(Blanket Etchback)시에 생기는 생성물이 Trench밖으로 쉽게 빠져 나옴으로써 sidewall에 부착되지 않도록 하여야 한다.3.2 절연막 형성Trench side wall에 절연막을 형성한다. 보통 절연막의 두께는 200A(암스트롱)이다. 절연막형성보다 중요한 과정이 절연막 전후로 진행되는 세척작업이다. 일반적으로 Etching작업시에는 부산물이 Trench 측벽에 부착되어 절연막의 형성을 방해하는 경우 질 좋은 절연막이 생성되지 못할 우려가 있으므로 Trench 내부의 세척작업은 굉장히 중요하다. 대표적인 방법으로는 고주파의 초음파를 이용하여 웨이퍼에 진동을 가하여 세정효과를 기대한다.3.3 RefillingRefilling을 진행한다. Etching에 의해 원하는 trench가 형성되었다 하더라도 Refilling시 Trench의 바닥부터 충진되는 것이 아닌 Step Coverage현상이 일어나 입구부터 충진되어 Trench의 입구를 막을 수 있다. 이런 실패는 Trench 내부에 큰 구멍을 남기게 되는데 이는 Void라고 불린다. 이러한 실패를 막기 위해 약 625’C 이상에서 LPCVD공정을 통해 poly-si을 증착시킨다.3.4 Planarization(평탄화)LPCVD공정은 Trench 내부를 제외한 원하지 않는 영역에도 Si을 증착시킨다. 따라서 원하지 않는 부위의 물질을 제거하여야 한다. LPCVD 공정후에 Si기판 위에 남아 있는 증착물은 완전한 평면이 아니라서 평탄화를 진행해도 완전한 평탄화가 되지 않는 형태가 된다. 이러한 문제를 해결하기 위해 RIE(Blanket Etchback)에 의한 Cusp의 잔류 문제를 해결해 주기는 하나 근본적으 웨이퍼의 뒷면에 BackGrinding과 CMP(Chemi-mechanical polish)공정을 함으로써 웨이퍼가 50um로 얇아진다. 웨이퍼 뒷면을 보호하고 고립시키기 위해 SiN layer가 증착된다. 그 뒤 Contact Hole이 열리고 Cu/Ti/Al layer가 sputtering을 통해 증착된다. 마지막으로 웨이퍼 뒷면에 Au/Ni bump공정이 진행되고 유리 지지대가 제거되면 웨이퍼는 하나의 chip이 된다.4. 그 외 공정방법에 대한 비교 및 논의4.1 Stacked Capacitor 공정방법절연막 형성Stacked Capacitor의 경우 단결정 Si을 사용하는 Trench Capacitor과 다르게 다결정 Si 을 사용한다. 다결정 Si위에서 자라는 Oxide는 표면이 거칠게 되어 균등한 두께와 전기적 성질을 가지는 산화박막을 만들기 까다롭다. 따라서 소자가 동작상태일 때 얇은 부분에서 Breakdown등의 현상이 나타날 수 있고 박막 형성시 공급되는 불균일한 SI로 인해 PinHole이 생겨 원하지 않는 전류가 흐를 수 있다. 이러한 현상을 방지하기 위해 다결정 Si의 표면을 깨끗하게 해주어야한다. 이때, Si을 이중막으로 하고 그 막 사이에 POCl3를 충분히 주입후 표면층에 Ion Implantion으로 불순물 층을 형성하여 깨끗한 다결정 Si막을 형성한다.Lithography파장 365nm의 i-Line을 이용한 Stepper의 개발과 고해상도 감광막의 개발로 인해 0.6마이크로미터 급의 선폭을 얻을 수 있다.DRAM ProcessTrench Capacitor의 과정과 동일하다4.2 비교 및 논의Trench Capacitor의 경우 Oxide가 단결정 Si위에서만 자라는 것이 아니고 Trench 내부에 Refilling된 다결정 Si위 에서 동시에 성장하게 된다. 이때 단결정 Si와 다결정Si위에서 자라는 Oxide의 성장속도에 차이가 나게 되는데 Field Oxide부위에서 심각한 Stress가 유발되어 이 부위가 전기적으로 취itor를 사용한 DRAM은 각 공정과정에서 여러 가지 문제점을 안고 있다. 반면에 Stacked Capacitor 공정과정에서는 Trench Capacitor를 형성시키기 위해 필요한 공정과정들이 불필요 하므로 문제점도 해결될 뿐만 아니라 공정과정이 간단하고 공정시간이 현저하게 절약되므로 Trench의 경우 보다 생산성의 측면에서 우위에 있다고 볼 수 있다. 그러나 다른 공정과정을 진행하게 되며 Trench Capacitor 공정과정에서 볼 수 없는 문제점을 안고 있다. 단결정 Si을 사용하는 Trench Capacitor과 다르게 다결정 Si을 사용하면서 발생하는 문제점과 Capcitor를 형성하는 부분이 Si 기판 위이므로 Lithography와 Etching공정과정이 까다로워지는 문제점을 가지고 있다. 마지막으로 Trench Capacitor의 경우 Trench의 깊이를 조절하여 Capacitor의 면적을 증가시켜 축적되는 전하량을 증가시킬 수 있는 반면 Stacked Capacitor의 경우에는 집적도에 한계가 존재하여 원하는 만큼의 충분한 전하량을 축적시키기 어렵다.5. 참고문헌(1) 민위식/DRAM의 발전 방향과 전망/1992(2) Three-Dimensional Packaging Technology for Stacked DRAM With 3-Gb/s Data Transfer/ Masaya Kawano; Nobuaki Takahashi; Yoichiro Kurita; Koji Soejima; Masahiro Komuro; Satoshi Matsui/2008(3) 이대훈/DRAM의 제조공정의 기술적인 문제점 -Trench 축전구조 형성 기술을 중심으로/1989(4) 네이버 지식백과 DRAM Hyperlink "https://terms.naver.com/entry.naver?docId=1169752&cid=40942&categoryId=32384" https://terms.naver.com/entry.naver?docId=1169752&cid=40942053
Mnist 손글씨 이미지 인식1. Mnist dataset최근 스마트폰, 태블릿 등과 같은 전자기기들의 발전으로 인해 손글씨 인식에 대한 연구들이 등장했는데 다양한 손글씨를 인식하려는 노력들이 있었다. 그러나 어린아이들의 손글씨와 같이 글씨 모양이 상대적으로 불규칙할 때 이를 인식하기 어렵다는 점이 존재했다. 이로 인해 최근에 딥러닝 기술들을 적용해서 손글씨 인식률을 개선하려는 시도가 있었다. Mnist는 Modified National Institute of Standards and Technology database의 약어로 손으로 쓴 숫자들로 이루어진 대형 데이터베이스이다. 이미지 데이터에는 가로세로 비율이 유지된 28*28의 픽셀의 크기로 정규화된 이미지와 그 이미지가 어떤 숫자인지를 나타내는 Label(레이블)정보가 함께 들어 있다. 기계학습 분야에서 아주 유명한 데이터 셋으로 간단한 실험에서부터 논문으로 발표되는 연구까지 다양한 곳에서 이용되는 손글씨 숫자 이미지 집합이다.2. CNN인식률을 높이기 위해 신경망 RNN과 CNN의 방식 중 CNN을 사용하여 손글씨 인식에 대한 정확도를 높이고자 하였다. CNN이란 합성곱 신경망(Convolution neural network)으로 수학적기호인 Convolution을 이용하여 이미지, 텍스트, 사운드 등을 분류하는데 사용되는 인공신경망이다. 딥러닝에서는 이를 심층 신경망으로 분류되어 시각적 이미지 분석에 널리 사용된다.이미지 인식의 경우에는 일반적으로 CNN을 기초로 두고있다. CNN은 은닉층 사이에 두개의 계층을 추가하여 데이터의 특징을 보다 적절하게 추출하는 신경망이다. 하나는 합성곱 계층(Convolution Layer)이고 다른 하나는 풀링 계층(Pooling Layer)으로 존재한다. 합성곱 계층에서는 이미지를 처리하게되는데 이때 필터연산을 수행한다. 입력데이터에 의한 필터가 최종적으로 output을 내게 된다.풀링계층은 근처 픽셀들을 모아서 하나의 값으로 최댓값이 나타내어지는 계층이다. 이를 토대로 Output은 압축이되고 공간이 줄여지며 차원을 축소시킨다. 값을 추출하는 방법에는 Max Pooling과 Average Pooling 등이 존재하지만 Max Pooling을 주로 이용하고 Average Pooling의 경우에는 Max Pooling과 달리 평균값을 내어 연산을 수행하게 된다. 또한, 풀링계층이 경우에는 학습을 필요로 하지 않아 Parameter가 없다.그러나 CNN에는 단점이 존재한다. 모델의 학습 깊이가 깊어질수록 오히려 성능이 떨어지는 현상이 생긴다. 이는 layer가 깊어질수록 미분 계산이 점차 많아지기 때문이다. 역전파를 해도 미분값이 작아져 출력값에 영향을 미치는 정도가 작아진다. 이로 인해 완벽한 학습 데이터라도 학습이 제대로 이루어지지 않는 결과를 초래한다. 그러나 실제로 코드를 작성할 때 CNN의 층수가 2층일 때보다 3층일 때 정확도가 더 높은 것을 확인 할 수 있었는데 2층에서 3층으로의 변화는 GPU가 미분계산을 감당하지 못할 만큼 많아지는 것은 아니라는 것을 알 수 있다.3. Overfitting(과적합)딥러닝에서 중요하게 다뤄지는 문제 중 하나는 Overfitting을 피하는 것이다. 딥러닝을 처음 공부할 때 훈련 데이터셋에 적합할 때 까지 모델에 지속적으로 노드를 추가하여 복잡하게 만들어 정확도를 높이려는 시도가 많은데 이렇게되면 훈련 데이터셋에서의 모델의 정확도는 100%에 가깝지만 테스트 데이터 셋에서는 정확도가 매우 낮게 측정된다. 따라서, 이를 위해 과적합에서 벗어날 수 있게 모델을 훈련시켜야한다. Overfitting을 피하는 방법으로는 모델 학습을 위해 많은 데이터 수집(DataArgument, 좌우반전, 크기조절, 사진찌그러트림, 상하좌우이동 등), 가중치 L1, L2 규제 사용, 드롭아웃(Dropout)사용, 모델크기 줄이기가 있다. 코드를 작성할 때 여러 번의 시행착오를 겪고 나서 Underfitting에 빠지지 않을 만큼 은닉층 수를 3층으로 조절하여 모델의 복잡도를 줄여주어 모델의 테스트 데이터 셋에서의 정확도를 높일 수 있었다.4. Learning Rate(학습계수)Learning Rate(학습계수)는 딥러닝에서 신경망을 학습시키기 위해 조정해야 할 가장 중요한 HyperParameter이다. 이 파라미터는 구해야 할 가중치를 새롭게 Update 할 때 얼마나 Update할지 조절해준다. 만약 이 값이 너무낮으면 학습은 매우 늦게 진행되고 너무 높으면 최솟값을 찾지 못하고 진동하거나, 무한대로 발산한다. 딥러닝 모델들은 주로 SGD optimizer로 훈련된다. 이 optimizer들은 모두 Learning rate를 설정하도록 되어있는데 이 Learning rate로 optimizer에 가중치를 얼마나 미분의 반대방향으로 옮길 지 정해준다. 위 그래프에서 볼 수 있듯이 Learning rate가 증가할 때 마다 loss는 줄어들다가 어느 정도 이후에는 무한대로 발산한다. 따라서 loss가 가장 빠르게 줄어드는 구간을 찾는 것이 중요한데 이는 0.01과 0.001사이이다. 실제로 Learning rate의 값을 변경시켜가며 loss와 정확도정 측정하였을 때 0.001에서 가장 정확도가 좋았음을 확인할 수 있었다.5. Batch sizeBatch size는 전체 Train 데이터 셋을 여러 작은 그룹으로 나누었을 때 하나의 소그룹에 속하는 데이터의 수를 의미하며 모델 학습시 중요한 HyperParameter중 하나이다. Train 데이터 셋을 작게 나누는 이유는 Train 데이터를 그대로 신경망에 넣으면 미분 값을 정확하게는 계산 할 수 있지만 전체 데이터의 손실함수를 계산해야 하므로 엄청난 계산량을 필요로 하여 비효율적인 리소스 사용으로 시간이 오래 걸리기 때문이다. Batch를 나눔으로써 이를 해결하여 속도를 향상 시킬 수 있다.Batch size를 어떻게 결정하느냐에 따라 학습과정에 차이가 발생한다. 위 그래프는 Learning Rate를 고정하고 Batch size의 변화에 따른 Test 정확도의 그래프이다. 작은 batch size를 사용할수록 높은 정확도를 가지는 것을 알 수 있다. 즉, 보다 넓은 범위의 Learning rate에서 학습이 가능하다. 또한, 위의 그래프에서 Batch size는 8정도 일 때 최적의 성능을 가짐을 알 수 있다. 반면, Batch size를 키울수록 학습 시간은 단축된다. 프로젝트를 통해 확인해 보았을 때 200일 때보다 100일 때가 정확도가 더 높고 100일 때 보다 10일 때 정확도가 더 높음을 확인 할 수 있었고 학습시간은 반비례하여 오래 걸리는 것을 확인 할 수 있었다.6. 고찰이번 학기 전자공학 종합설계에서 딥러닝을 기반으로한 Mnist 손글씨 이미지 인식에 대한 프로젝트를 진행하였다. 데이터 인식에서 속도향상을 위해 CNN의 Layer를 2층에서 3층으로 증가시켰을 때 유의미한 속도증가를 확인 할 수 있었다. 또한, 훈련데이터에서는 배치수를 바꿔가며 속도증가를 확인해보았는데 200일때보다 100일 때 속도가 더 빠른 것을 확인 할 수 있었고 Test데이터에서는 배치수가 100일때보다 10일 때 더 빠른 것이 확인되었다. Test데이터 셋의 배치크기가 100일때는 96~98이었고 배치크기를 10으로 낮추었을 때 정확도가 100으로 다소 증가하는 반면 정확도의 오차가 발생하여 간간이 90도 나오는 것을 확인할 수 있었다. 정확도를 높이기 위해서 Train데이터를 통해 학습하고 다른 파일을 판단하는 것이기 때문에 데이터가 많으면 많을수록 좋을 것 같다. 그러나 절대적인 Train데이터의 양이 그렇게 많지 않았기 때문에 Train데이터와 Test데이터의 비를 7:3으로 나누었다. 조금 더 많은 Train데이터를 가지가 학습했을 때 는 9:1로 나눠보았는데 정확도는 비슷하지만 조금 더 빠르게 정확도가 좋아졌다. 그러나 Train데이터가 많으면 많을수록 Test데이터가 적다는 얘기이므로 Test데이터가 많은 쪽에서 정확도가 조금 더 느리게 올라가는 것이 당연하게 여겨진다. 그렇지만 대회와 같이 정확도의 속도가 중요한 상황에서 빠른 속도를 원한다면 정확도는 비슷하므로 9:1을 선택할 것 같다. 과적합을 피하기 위해 Dropout을 사용해 보았는데 CNN의 Layer가 2층일 때에는 왠지 모르게 속도와 정확도가 감소하였는데 아마 사용법이 미숙하여 잘못된 사용으로 인한 것 같았다. 그러나 3층일 때는 Dropout이 사용되었을 때 정확도 및 속도 향상을 확인 할 수 있었다. 또한, 과적합을 피하기 위해 데이터 양 자체를 많이 만들기 위한 DataArgument를 고려해 보았는데 실제 Train데이터를 건들여도 되는지 몰라서 적용할 수 없었다.7. 참고문헌[1] AHan MR et al. “A Study on the AI Based MNIST Handwriting Recognit”(2019)[2] Bae CH et al. “An Experimental Comparison of CNN-based Deep Learning Algorithms for Recognition of Beauty-related Skin Disease”(2020)[3] 한빛미디어 [4] 네이버 및 구글 블로그
FinFET소개일반적으로 트랜지스터의 크기를 줄일수록 성능이 증가하지만 기존의 트랜지스터인 MOSFET은 크기가 작아짐에 따라 gate length가 너무 작아져 발생하는 문제, 크기의 한계, 단채널 효과 등의 이유로 현대에는 트랜지스터의 크기를 줄이는 것에는 한계에 다다르고 있다. 그에 따라 차세대 트랜지스터의 필요성이 대두되었고 FinFET이 그 해결책으로 제시되고 있다. FinFET이란 상어지느러미 라는 뜻의 Fin과 FET(Field Effect Transistor)을 합친 용어로 인텔을 필두로 삼성전자 TSMC등이 도입중인 3차원 입체구조의 기술이다. MOSFET은 구조적으로 2차원적으로 한 면에만 전류가 흐르지만 FinFET은 앞면, 뒷면, 윗면까지 3차원적으로 입체적인 3개의 면을 통해 훨씬 많은 양의 전류를 흘릴 수 있다. 또한, MOSFET은 평면적으로 누설전류를 제어하여 누설전류가 크지만 FinFET은 3차원의 입체적으로 누설전류를 제어하므로 누설전류를 작게 만드는 효과를 기대할 수 있다. FinFET이 Si 위에서 차지하는 면적은 오히려 MOSFET보다 작으므로 그 동안 반도체 집적도 개발을 주도해왔던 전형적인 방법인 트랜지스터의 면적을 줄여 집적도를 높이는 것과 같은 효과를 가져올 수 있다.2. 동작원리FinFET의 동작원리는 일반적인 트랜지스터인 MOSFET과 같다. 게이트에 전압이 인가되면 채널을 통해서 Source에서 Drain으로 전류가 흘러 동작한다. 이때 게이트와 채널의 접점이 크면 클수록 소자의 효율이 높아진다. 이에 따라 Source와 Drain을 위 그림과 같은 실리콘 핀(Sillicon fin)형태로 만들어 게이트의 길이를 줄여 동작하게끔 만든 것이다. Source와 Drain의 높이만큼 전류가 흐를 수 있는 통로가 확보되어 있으므로 채널 길이가 좁아져도 문제가 없다. MOSFET은 구조적으로 한 면에만 평면적으로 전류가 흐르지만 FinFET은 앞면, 뒷면, 윗면까지 3차원적으로 입체적인 3개의 면을 통해 훨씬 많은 양의 전류를 흘릴 수 있다. 또한, MOSFET은 평면적으로 누설전류를 제어하여 누설전류가 크지만 FinFET은 3차원의 입체적인 방법으로 누설전류를 제어하므로 누설전류를 작게 만드는 효과가 있다. FinFET은 MOSFET보다 공정이 조금 더 복잡하다는 단점이 존재하지만 집적도를 높이고 전류를 효과적으로 제어할 수 있는 장점이 있다.3. 공정과정(Bulk FinFET)다결정 구조의 Si이나 Ge 등을 사용하여 Bulk Silicon Substrate를 구성한다. HDPCVD또는 thermal oxidation공정을 통해 Oxide를 증착한다. 그 위에 CVD, PVD공정을 통해 mask layer로 silicon nitride, silicon carbon nitiride등의 물질을 증착한다. Mask layer아래 Oxide를 증착하는 이유는 Oxide위에 있는 Silicon nitride와 Silicon은 격자상수가 다르기 때문에 두 물질이 서로 접촉하게 되면 Silicon에 stress가 가해지기 때문이다etching공정과 photolithography공정을 통해 Fin구조를 형성한다. PR과 mask layer를 patterning하며 RIE와 같은 etching공정을 이용하여 식각한다. Patterning된 hard mask가 없는 영역은 식각되어 silicon substrate는 위 그림과 같이 된다.etching이후에 HDPCVD나 PVD, ALD와 같은 공정을 통해 Oxide 물질과 같은 절연 물질로 덮어준다. 이렇게 덮여진 절연 물질은 각 Fin들을 감싸 fin간에 절연되도록한다.절연물질을 덮은 뒤 CMP공정을 통해 평탄화 작업을 진행한다. 이때 Fin구조를 형성할 때 사용되었던 mask layer와 dielectric layer를 제거한다.Etching 공정을 통해 절연막의 일부를 etch back하여 fin의 옆면이 노출되게 한다. 이때 PR을 붙이고 patterning한 뒤 절연 물질을 etching하고나서 PR을 제거한다.HDPCVD를 통한 증착과정, 노광, 식각 공정을 통해 gate dielectric을 구성하고 그 위에 Al, Ti를 사용하여 gate elctrode를 덮고 gate spacer를 만들어 주어 3 gate를 형성한다. 이 뿐만 아니라 gate구조는 공정 방법에 따라 diffusion layer, capping layer, barrier layer를 포함 할 수 있다.Drain, Source를 형성하기 위해 Fin을 기준으로 앞 뒤에 있는 절연 물질을 etching공정을 통해 제거한다. Etching시 Si 기판이 노출될 정도로 etching함으로써 Fin사이에 있는 절연물질, gate dielectric layer, gate spacer가 앞 뒷면에 노출된다.마지막으로 절연물질을 제거하여 Source, Drain영역에 Epitaxy공정을 진행하여 semi conductor물질을 Si기판, fin의 옆면, gate dielectric layer에 증착한다. 이때 불순물을 doping할 수 있으며 annealing을 통해 활성화시킬 수 있다. 이로 인해 FinFET이 형성된다.4. SOI FinFET 공정방법과 비교 및 논의Bulk FinFET과 SOI FinFET의 공정과정은 둘다 식각공정과 노광공정을 통해 반도체 물질을 식각하여 Fin을 형성하고 gate electrode와 gate dielectric을 증착하여 3-gate FinFET을 형성하는 점에서는 동일하다. 그러나 Bulk FinFET과 SOI FinFET의 공정과정에서 가장 큰 차이는 기판의 차이이다. 이로 인해 공정방법에서 차이가 발생한다. Bulk FinFET의 공정과정에서는 fin을 먼저 만들고 Source, Drain영역을 형성하기 위한 추가적인 공정이 필요하지만 SOI FinFET공정과정에서는 Fin을 식각할 때 Source와 Drain영역이 동시에 생성된다. 이로 인해 증착과정은 Bulk FinFET공정보다 어렵다. 또한, 다결정 Si을 사용하는 Bulk FinFET과 달리 SOI FinFET에서는 단결정 Si을 Oxide층에 증착시킨다. SOI wafer의 가격이 높으므로 Bulk FinFET의 비용이 보다 적게 들어갈 뿐만 아니라 공정과정이 좀더 간결하지만 전력을 많이 소비하며 누설전류가 크다. 또한, Bulk FinFET은 채널에 있는 불순물 때문에 Parameter의 값을 조절하기 어렵다. 마지막으로 SOI FinFET의 Oxide에는 BOX라고 불리는 추가적인 layer가 있는데 이 BOX는 FinFET의 누설전류를 줄여준다.5. 참고문헌(1) 이종호/3차원 반도체 소자인 벌크핀펫의 발전(2) Chi-Wen Liu, Chao-Hsiung Wang/ FINFET DEVICE AND METHOD OF MANUFACTURING SAME(2014)(3) Ying-Yu Chen, Yu-Hsien Lin, Cheng-Chi Wang/ Comparison of bulk FinFET and SOI FinFET(2018)(4)네이버 블로그 Hyperlink "http://blog.naver.com/PostView.nhn?blogId=kore2758_&logNo=221444730336&parentCategoryNo=&categoryNo=172&viewDate=&isShowPopularPosts=true&from=search" http://blog.naver.com/PostView.nhn?blogId=kore2758_&logNo=221444730336&parentCategoryNo=&categoryNo=172&viewDate=&isShowPopularPosts=true&from=search
강의 내용 전반에 대한 소감사실 ‘그래픽 디자인 이야기’ 라는 수업을 듣기 전까지 만 해도 나에게 그래픽 디지인이라는 분야는 매우 생소한 분야였다. 초등학교 6학년 중학교 3학년 고등학교 3학년 대학교 3학년, 군대등을 지내오면서 사실 나는 굉장히 수동적으로 살아왔다. 즉, 내가 스스로 사는 삶이 아닌 누가 시켜서 사는 삶에 익숙해져 있었다. 이 떄문 인지는 모르겠지만 사실 나에게 디자인에 대한 생각을 물어보면 남들이 좋아하는 것, 유행에 뒤쳐지지 않는 것이 전부였다. 스스로 어떤 디자인이 좋다, 나쁘다를 평가하기 보다는 남들의 평가에 의해 수동적으로 그 디자인들을 평가 해왔다. 그러다 보니 디자인에 대한 깊은 생각이나 어떻게, 왜 디자인을 하였는지와 같은 생각을 해본 적이 없었다. 그러나 이 수업을 듣고나서 디자인을 바라볼 때 디자인이라는 무늬, 그림만 바라보는 것이 아닌 그 디자인이 어떻게 생겨났는지, 디자인의 유래는 무엇일지, 왜 그렇게 디자인하였는지 등 디자인에 대해서 한번 더 생각을 해 볼 수 있게 되었다. 디자인에 대해 흥미가 생겼다고 봐도 될 것 같다.디자인은 우리 주변에서 엄청나게 많이 찾아 볼 수 있다. 지금도 내가 보고서를 작성하기 위해 바라보고 있는 모니터 바로 아래에도 LG의 디자인이 그려져 있다. 이렇듯 디자인은 굉장히 친숙해 보인다. 그러나 그 친숙함의 이면에는 내가 생각하는 것과는 많이 다른 것들이 있을 것이라 생각해서 이 수업을 듣기 전에 걱정이 되었던 기억이 난다. 사실 다른 교양과목을 들었을 때 하나도 모르는 수업을 수강하였다가 좋지 못한 점수를 받은 경험이 있어서 똑같은 실수를 하게 될까 나에게는 걱정이 되었었다. 그러나 이 수업을 듣고 나서는 그러한 생각이 바뀌었다. 그래픽에 대한 하나의 배경지식 조차 없던 나도 굉장히 이해하기 쉬운 강의로 되어있었고 오히려 배경지식이 하나도 없었다고 생각했던 나의 생각이 잘못 되어있었다. 우리 주변에서 쉽게 볼 수 있는 여러 브랜드 디자인들이 내 배경지식이었던 것이었다. 이 배경지식들로 인감 없이 다가왔다. 실제로 나는 인문분야 수업을 들었을 때 수강하기 힘들었던 기억이 났다. 교수님의 수업 방식은 마치 어린 시절 할머니가 읽어주시던 전래동화처럼 잘 이해가 되었고 흥미로웠다. 사실 수업을 수강하면서 딱히 어려운 점은 없었던 것 같다. 분명 나에게는 생소한 분야였지만 다가가기 쉬운 분야여서 그랬던 것 같다. 이번 학기에 나는 전공과목에서 공부에 대한 많은 부담감이 있는데 이 수업은 나에게 산소통 같은 역할을 독톡히 해주었다. 왜냐하면 시험을 보지 않아서 부담을 굉장히 줄여주었기 때문이다. 다른 핵심교양수업을 수강 하였을때는 오히려 교양과목이 전공과목보다 부담이 더 되었었다. 내용도 방대하고 생소한 분야라 암기만 하느라 시간을 엄청 할애할 수 밖에 없었기 때문이다. 그렇다고 수업에 대한 공부를 안했다는 것은 아니다. 시험을 과제로 대체하면서 과제를 하면서 디자인에 대해 공부하며 과제를 하였다. 특히 두번째 과제에서 ‘어쩌다 디자인’이라는 책을 읽고 독후감을 작성하였는데 독후감을 작성하면서 디자인에 대해 수업외적인 부분도 공부할 수 있어서 좋았었다. (예를 들면 디자이너의 고충, 의사소통과 같은)강의 내용 중 본인이 흥미롭게 보았거나 더 알아보고 싶었던 디자인 사례내가 이번 학기에 흥미롭게 보았던 디자인 사례는 글꼴을 다룬 4주차의 수업이다. 여기서 사례는 헬베티카(4주차 2교시)이다. 사실 글꼴체를 다룬 디자인을 선정한 이유는 나의 경험에서 비롯되어있다. 올해 코로나로 인해 시간이 많이 남아 온라인쇼핑몰과 유튜브를 시작해보았다. 시작할 때 제일 먼저 하는 것이 나의 쇼핑몰과 채널을 대표하는 프로필을 디자인하는 것이다. 카카오톡이나 유튜브, 네이버 등등 어느 포털 사이트를 들어가면 나 자신을 대표하는 프로필 사진처럼 매우 작고 동그란 모양이었지만 그 안에 나를 나타낼 수 있는 것을 간결하게 담기 위해 그림이나, 복잡한 디자인을 하기 보다는 글씨체만을 사용해서 깔끔하게 나타내고 싶었다. 처음 시작할 때 디자인에 대해 아무것도 모르던 나였어서 굉장히 애제를 선택하지 않을 수 없었다. 당시에는 그래서 내 가볼 때 깔끔한 글씨체를 사용하여 디자인을 하였었다. 이 강의를 좀 만 더 일찍 들었었더라면 하는 후회가 좀 남는다. 사실 디자인이 좋다고 해서 모든 상품이 다 잘팔리고 성공하는 것은 아니지만 소비자나 시청자에게 좋은 인상을 남겨 줄 수 있는 것은 사실이다.이 강의를 일찍 보고 헬베티카 글씨체로 디자인 했으면 좀 더 판매가 잘 되지 않았을 까 하는 아쉬움이 남는다. 그리고 강의를 보다가 디자이너 Manuel Krebs 가 한말이 너무나 가슴깊이 와닿았다. 사실 디자인을 전공하는 사람이 아니라면 디자인에 대해 깊게 공부하지 않는다. 그래서 디자인의 직관적인 첫인상이 굉장히 중요하다고 생각하는데, Manuel Krebs한 말 대로 크기가 동일한 헬베티카 볼드체를 사용하면 디자인의 시청자들에게 좋은 인상을 남겨 줄 수 있다. 그리고 사실 길을 가다 주변에 영어로 된 간판, 글씨 들을 보면 헬베티카 글씨체가 굉장히 많다는 것을 알 수 있지만, 정작 그 글씨체가 무엇인지 에대해 생각해 본 사람은 적을 것이다. 나는 이 강의를 보면서 흥미를 느껴서 선택하게 되었다.이번 강의는 초반에 여러 기업들이 사용하는 글씨체와 뉴욕 지하철에서 사용하는 글씨체를 보여주며 시작한다. 여기에 사용되는 글씨체는 헬베티카 글씨체이다. 헬베티카 글씨체는 막스 미딩거와 에두하르트 호프만이 함께 만들게 되었다. 헬베티카 글씨체는 수평과 수직에 신경을 써서 만든 글씨체로 알파벳의 여백에도 많은 신경을 써서 만든 글씨체이다. 이렇듯 헬베티카 글씨체는 영어권 국가에서 많이 사용되는데 사이러스 하이스미스는 헬베티카 글씨체가 영어권 국가에 얼마나 많은영향을 미치는지 알아보기위해 헬베티카 없이 하루 살아보기 실험을 해보았다고 한다. 옷, 음식, 교통, 책 등 헬베티카가 들어가는 못든 것들을 피하는 실험이라고 하는데 정말 쉽지 않았을 것 같다. 헬베티카는 가독성이 좋아 내용을 거부감이나 불편함 없이 잘 읽을 수 있게 되어있다. 스위스의 모더니즘 양식을 보면 알게모르게 그리드가 적용되어 배열을 갖고 있는 듯한 느낌을 받을 수 있다. 헬베티카 글씨체에는 굉장히 많은 패밀리가 있다. 유니버스 서체에는 세계 최초로 체계적이고 거대 활자 패밀리가 적용되었는데 이 보다 훨씬 많은 패밀리가 있다. 헬베티카 글씨체와 유니버스 체는 많이 비슷해보이지만 자세히 들여다보면 그렇지 않다. 헬베티카에는 수직과 수평을 더 많이 사용하였다. Arial의 글씨체와도 굉장히 많이 닮아있는 것을 알 수 있어 헬베티카가 arial을 배낀 것이 아니냐고 하는 사람도 있다고한다. 디자이너들이 말하는 헬베티카의 장점으로는 세리프가 없어 공간에 글자를 배열할 때 수평과 수직에 잘 맞물려 디자인 하기 쉽고, 가로와 세로의 비율이 거의 일정하여 글자가 차지하는 공간과 여백의 비율까지 계산해서 만들어서 어디에 써도 글자가 담고 있는 내용을 해치지 않는 중립적인 글씨체라고 한다. 그에 반해 단점도 있는데 디자이너가 말하는 단점은 헬베티카는 너무 많이 쓰이고 손글씨가 가지는 리듬과 강약을 가지고 있지 않으며 무척 논리적이지만 매우 작고 매우 타이트하며 현대 디자이너들에게 너무 가볍게 사용되고 있고 알파벳 글자들을 비슷하게 만들어서 하나하나 특징적인 개성을 가지고 있지 않다고 한다. 그러나 헬베티카 글씨체는 현재까지도 가장 중립적이고 기초적인 서체이기 때문에 디자이너들에게 많은 사랑을 받고 있다.우리나라에서는 많은 글씨체가 사용되고 있다. 대표적으로 고딕, 궁서, 굴림, 바탕, 돋움체가 많이 사용되는 것 같다. 그 중에서도 나는 돋움체에 대해서 알아보았다. 돋움체는 원래 독일의 글자체로서 구텐베르크의 활판 인쇄술 발명 이후 오늘날 까지도 많이 사용되고 있는 글씨체이다. 1920년대 초에 처음 나왔으며 책표지, 본문제목 등의 용도로 많이 사용되었다. 1991년에는 문화체육부에서 ‘한글 고딕체’를 우리말로 표현한 돋움체로 지정하게 되었다. 대개 가로줄기와 세로줄기의 굵기가 거의 같으며 수직, 수평으로 이루어 져있다.출처돋움체 Hyperlink "https://terid=41828&categoryId=41828강의 내용 중 본인이 흥미롭게 보았거나 더 알아보고 싶었던 디자이너 사례디자이너 이름 : 앤디 워홀, 7주차 1교시사실 앤디워홀은 디자이너라기보다는 팝아티스트 라고한다. 앤디워홀을 선택하게 된 이유는 앤디 워홀은 새내기 직장인부터 시작해서 아티스트의 수장이라고 할 수 있는 탑 클래스까지 올라갔기 때문이다. 사실 이렇게 밑에서부터 치고 올라온 사람들을 굉장히 좋아하는 편이다. 대단하기도 하고 그런 사람들을 보면 나도 할 수 있다라는 희망과 동기부여를 주기 떄문이다. 또한 앤디워홀은 실크스크린이라는 기법을 만들어냈는데, 이는 대량 복제 가능한 인쇄 방법을 사용하는 것이다. 이 실크스크린을 통해 마릴린 먼로의 그림을 그렸는데 개인적으로 좋아하는 그림이라 앤디 워홀을 선택하게 되었다.앤디 워홀은 현재 팝아트 작품랭킹에서 엄청난 순위를 가지고있다. 그의 작품 7개가 2017년에 작품랭킹의 상위권에 올랐다. 그중 1위를 한 작품은 앤디워홀이 자기 자신을 그린 자화상이다. 위에서 말했듯이 앤디워홀은 처음부터 엄청난 팝아트 수장이 아니었다. 그도 한때는 새내기 직장인이었던 때가 있었다. 그는 대학에서 디자인을 전공하여 디자이너로 일을 하였다. 그러나 그가 디자인한 그림들은 편집장이나 해당시 시대의 영향을 많이 받았기 때문에 그가 그린 작품이라고 하기 좀 어려운 부분이 있었다. 그러다가 프리랜서로 활동하여 일러스트레이터 및 그래픽 전문가로 성장하면서 이름을 날리게 되었다. 그의 기법인 blotted line technique은 정교한 선을 따라 그릴 수 있는 기법으로 사물을 정교하고 자세히 그려낼 수 있다. 그렇게 앤디워홀은 유명해지게 되고 그러한 직업적 바탕으로 개인전을 열고 싶어하였다. 그는 영상 기술에 관심도 많아서 직접 영화를 만들기도 했었다. , 라는 영화인데 러닝타임이 굉장히 길다. 그러다 30대 중반에는 새로운 길을 찾아나서게 되었다. 그림도 그리고 그가 좋아했던 캠벨수프도 디자인하여 앤디워홀 작품의 심볼이 되기도 했다
그래픽디자인의 수업에서 두번째 과제는 디자인에 관련된 책을 읽고 그에 관한 독후감을 쓰는 것이었다. 교수님이 선정해주신 책이 6권 있었는데 어떤 책을 읽을지 하나하나 검색해서 줄거리들을 읽어보았다. 평소 독서를 즐겨하지 않는 나는 좀 어려운 책만보아도 끈기있게 읽지 못하고 이해도 잘 못한다. 그래서 가독성이 좋은 책을 위주로 고르는 것에 초점을 두었다. 그러던 도중 ‘어쩌다 디자인’이라는 책의 줄거리를 읽어보았는데 줄거리부터 굉장히 읽기 쉽게 되어있고 책에 쓰여진 단어들도 굉장히 쉬운 단어로 되어있었다. 뭐랄까 읽고 싶은 생각이 딱 꽂혔다. 다행히 집 근처에 있는 구립 도서관에 해당 도서가 있었고 책을 빌린 뒤 바로 읽어보았다. 책의 페이지는 200페이지 안쪽이었으나 페이지마다 적혀있는 글자의 수가 적어 독서를 많이 해보지 않은 나에게 안성 맞춤의 책이었다. 이 책의 내용은 대략 평소 진로를 정해놓고 살지 않다가 갑자기 어떠한 계기로 인해 대학생때 디자이너가 되기로 마음먹고 어쩌다 디자이너가 되어서 디자이너의 고충이나 디자인과 관련된 오해를 풀어주는 내용이다. 예를 들면 이 책의 목차는 ‘예쁘게 디자인해주세요’, ‘간단하게 해주세요’, ‘살짝 만 고쳐주세요’ 등 디자인을 의뢰하는 의뢰자가 어렵지 않게 디자이너에게 할 수 있는 말들로 되어있다. 사실 차례만 읽어보아도 디자이너의 고충을 알 수 있도록 차례를 만든 것 같았다. 책 속의 내용들은 저자가 넋두리를 하는 듯한 말투로 되어 있는데 뭐랄까 친구에게 고민이나 고충얘기를 듣는 것처럼 되어있어 정말 쉽게 읽을 수 있었고 이러한 에피소드들이 모여 하나의 책이 된 것이 신기하고 재미있었다. 이러한 에피소드들을 통해서 내가 모르던 분야를 알게 해주는 실마리가 될 수 있었고 추후 디자이너들과 얘기를 한다면 디자이너와의 소통에서 발생하는 문제를 해결하고 디자이너를 이해할 수 있는 해결책이 될 것 같다.이 책에는 여러가지 일화가 있지만 기억에 남는 일화를 하나 작성해보려한다. 이 책의 5번째 일화인 ‘새롭지만 친숙하게요’라는 주제이다. 디자이너들이 가장 어렵다고 느끼는 것들 중 하나는 어떤 디자인을 가지면 너무 앞서 나간다하고 어떤 디자인을하면 너무 평범하다고 하는것이다. 즉 클라이언트들이 원하는 것을 정확하게 맞추기가 어렵다는 것이다. 그래서 클라이언트랑 얘기를 해보면 클라이언트들은 새로운 듯 하며 평범하거나 평범한듯하며 새로운 느낌을 찾게 된다고 한다. ‘왜 이렇게 상반된 두 가지 조건을 동시에 충족하도록 요구 받을까?’에 대해 의문점을 가지고 책을 더 읽어보았다. 디자인은 기본적으로 소비자들의 관심을 끌 수 있도록 익숙하지 않은, 어딘가 새로운 느낌이 드는 새로움을 추구한다. 심리학에서는 이를 ‘신규성 효과’라고 한다고 한다. 이 효과는 인간의 뇌가 굉장히 경제적으로 활동해서 나타난다고 한다. 예를 들면 우리 눈에 어떤 자극이 익숙해지면 뇌는 이 자극이 불필요한 자극이라고 생각하여 불필요한 낭비를 줄이기 위해 무시한다. 이 때문에 기존의 것과는 다른 새로움이 필요한 것이다. 또한, 기술이 발전하면서 기존의 디자인을 부정적으로 인식한다. 한떄의 첨단 기술도 시간이 지나며 익숙한 기술이 되고 낡은 것으로 여겨진다. 이러한 과정에서 ‘좋은 디자인’은 멈춰있지 않는다. 즉, 새로운 디자인을 만들어 낼 것을 요구 받게 된다. 이렇듯 ‘새로움’이 소비자의 관심을 유도할 때 유리하게 작용하나 디자이너들은 새로움만을 추구해서는 안 된다. 새로움과 대비되는 ‘친숙함’이라는 것이 새로움만큼이나 중요하다. 친숙함으로 인해 뇌가 경제적으로 작동하고 정보를 효율적으로 사용하기 위해 ‘고정관념’을 사용한다. 고정관념은 부정적으로 받아들일 수도 있지만 주어진 상황에서 기존의 지식을 활용해 빠른 판단을 내려 인지적인 부담을 줄이고 상황에 더 쉽게 대처할 수 있도록 해주는 중요한 기능이다. 따라서 이렇듯 우리는 과거의 경험을 통해서 가지고 있는 지식을 응용한다. 즉, 적당함 친숙함은 사용자의 혼란을 줄이고 잘 사용되게 하귀 위한 목표를 위해 필수 적이다. 따라서 일반적인 경우 디자인에서 새로움과 친숙함이라는 서로 상반된 것 처럼 보이는 이 두 가지의 균형을 잘 맞추는 것이 중요하다. 즉, 적당한 새로움은 디자이너가 추구해야 할 중요한 덕목 중 하나라고 한다.이 챕터를 읽으면서 적당한 친숙함에 대해서 생각해보았다. 평소 자동차에 관심이 많은 나를 떠올릴 수 있었다. 얼마전에 벤츠에서 4년만에 S클래스, E클래스의 풀체인지를 진행한 것이 생각났다. 풀체인지란 자동차 모델의 디자인을 변경시킬 때 앞부분과 뒷부분을 새롭게 바꾸는 것을 말한다. 이번 벤츠의 풀체인지에서 진행하며 변경시킨 디자인은 풀체인지 이전모델과 완전히 다른 차라고 생각될 만큼 파격적이었다. 사실 풀체인지 이전의 모델은 누구나 좋아할 법한 디자인이었다. 그러나 이번 모델은 호불호가 극명하게 가릴만한 디자인이다. 사실 나는 이전모델의 디자인을 정말 좋아했었고 나중에 언젠가 꼭 사서 타보고 싶은 마음을 갖게할 정도로 디자인에 대해 정잘 좋은 생각을 가지고 있었다. 그러나 이번 디자인을 보고는 벤츠 디자이너에게 많은 실망을 하게 되었다. 그러나 이 챕터를 읽으며 디자인은 새로워야 한다는 것을 깨닫게 되었고 또한 왜 디자이너가 이렇게 파격적인 변화를 이끌어냈는지에 대해 이해해 볼 수 있었다. 또한, 이 디자인 변화 속에서 적당한 새로움을 찾을 수 있었다. 해당 챕터에서 저자가 말했듯이 자극이 지속되면 뇌는 그 자극을 무시한다고 하였다. 또한 디자인이 오래되면서 소비자들이 낡은 것으로 인식할 수 있기 때문에 디자인을 변화시킨 것 같다. 그럼에도 개인적으로 구형디자인이 너무 마음에 들어서 구형디자인에 계속 눈길이 간다. 사실 돈이 있는 것도 아니지만 말이다.전 후자동차도 좋아하지만 핸드폰에도 많은 관심이 있다. 핸드폰의 디자인에 대해서도 생각해 보았다. 이 책에서는 간결하게 생겼을수록 디자인 하기 어렵다고 되어있다. 왜냐하면 tv나 핸드폰에서는 많은 변화를 이끌어낼 만한 부품이 없기 때문이다. 사실 핸드폰은 화면, 베젤, 카메라, 두께, 크기 정도를 제외하고는 특징짓기가 힘들다. 그래서 그런지 최근에 나오는 핸드폰의 디자인은 카메라에 만 초점을 두고 거의 다 비슷비슷한 것 같고 별로 마음에 드는 디자인이 없었다. 그러나 이 챕터를 읽으면서 디자이너의 고충도 어느정도 이해 할 수 있게 되었다.이 책을 읽으면서 디자인에 대해서 디자이너의 입장에서 생각해 볼 수 있는 경험을 하였다. 고충이야 어느 분야에나 다 있겠지만 내가 살면서 잘 몰랐던 그리고 앞으로도 관심이 없으면 몰랐을 분야에 대한 고민, 고충이라 나에게는 새롭게 다가왔고 흥미있게 읽을 수 있었다. 그리고 이 책의 저자는 대학생때 영어과에서 진로에 대해 고민하다가 디자이너가 되었다고 말하고있다. 사실 나 역시도 3학년인데 진로에 대해 많은 고민을 가지고 있는데 이 책을 읽으면서 인생선배의 얘기를 듣는 듯한 느낌이 들었다. 기업에 취업을 하게 되면 내가 일하는 제품에 대한 디자인의 생각을 한번 더 해볼 것 같은 생각이 들고 추후 디자이너들과 얘기를 한다면 디자이너와의 소통에서 발생하는 문제생각 해 볼 때 이 책을 떠올릴 것 같다.