Tổng số lượt xem trang

Thứ Tư, 18 tháng 4, 2018

How can unnecessary ABUS recalls be avoided?


By Kate Madden Yee, AuntMinnie.com staff writer
April 16, 2018 -- Automated breast ultrasound (ABUS) can yield lower recall rates than handheld ultrasound, but unnecessary recalls still occur -- and it's important to find ways to reduce them, according to research presented at the recent American Institute of Ultrasound in Medicine (AIUM) annual meeting in New York City.

Why? Because having fewer recalls leads to fewer unnecessary biopsies and also less-stressed patients, lead researcher Dr. Beverly Hashimoto of Virginia Mason Medical Center in Seattle told AuntMinnie.com via email.
Dr. Beverly Hashimoto
Dr. Beverly Hashimoto of Virginia Mason Medical Center.
"One of the weaknesses of screening breast ultrasound is that it results in a high number of women being called back for additional imaging," Hashimoto said. "When we started our automated breast ultrasound program, we wanted to determine if there were lessons we could learn from reviewing our ultrasound callbacks to reduce the number of patients recalled in the future."
Reducing recalls
ABUS offers benefits over handheld ultrasound for breast cancer screening, in part because it reduces the modality's dependency on operator skill. But the technology doesn't completely eliminate screening downsides such as unnecessary recalls, study presenter Elissa Picozzi from the University of Washington told session attendees.
She and her colleagues examined 18 months of their experience with screening ABUS. All patients included in the study were asymptomatic and had heterogeneous or extremely dense breast tissue. The researchers focused their attention on patients who were called back for additional imaging due to a category 0 ABUS screening assessment ("incomplete").
Elissa Picozzi
Elissa Picozzi from the University of Washington.
At Virginia Mason, patients called back for a possible ABUS abnormality undergo a diagnostic handheld ultrasound exam; if this exam is a category 4 or 5 (suspicious or highly suspicious of malignancy), then the woman has an ultrasound-guided core biopsy. The researchers reviewed ABUS images, handheld ultrasound images, and any pathology results from biopsy.
In that first year and a half of the medical center's screening ABUS practice, 867 exams were performed. Of these, 229 patients (26%) were called back for a possible ABUS lesion and had a diagnostic handheld ultrasound exam; 69 (8%) had biopsies.
Of the 229 patients called back, 222 were recalled for category 2 or 3 lesions. Results from the handheld ultrasound exams in these 222 patients were as follows:
  • 68 patients (30.6%) with solid hypoechoic masses
  • 71 patients (32%) with no abnormality -- the "lesions" on ABUS were actually artifact shadowing
  • 35 patients (15.8%) with nonsimple cysts
  • 20 patients (9%) with simple cysts
  • 28 patients (12.6%) with miscellaneous lesions, including duct ectasia, scars, fat lobules, fat necrosis, or lymph nodes
The 69 biopsies revealed seven malignancies; of these, four were found only on ABUS. The cancer detection rate for ABUS was 4.6 per 1,000 cases.
Better evaluation?
Hashimoto and colleagues found that image artifacts masquerading as lesions were a frequent cause of unnecessary recalls. Many of these recalls could be avoided by using alternative reconstruction techniques and more careful consideration of different ABUS views, they noted.

"We were surprised to find that the second most common reason for calling a patient back was artifactual ultrasound shadowing," she told AuntMinnie.com. "As a result, we have developed techniques to better analyze shadowing on screening ultrasounds. We also discovered that many of the solid masses that were called back could have been resolved by changing our reviewing process of prior exams."

Thứ Bảy, 7 tháng 4, 2018

NAFLD and Ultrasound Elastography




Abstract
An increasingly common cause of chronic liver disease in adults and children is nonalcoholic fatty liver disease (NAFLD). The diagnosis of NAFLD was traditionally based on the histopathological changes of the liver, evaluated by needle liver biopsy, an invasive method, with potential adverse effects and great inter and intraobserver variability. The noninvasive methods for the assessment of both fibrosis and steatosis in patients with NAFLD have increasingly been studied lately. Of these noninvasive methods, in this chapter, we will focus on the methods assessing the stiffness of liver parenchyma, i.e. elastographic methods, of which, the most widely used are ultrasound elastography techniques. We will discuss the principal elastographic methods of some utility in NAFLD, i.e. shear wdave elastography (SWE) (quantitative elastography), and especially transient elastography, point SWE (acoustic radiation force impulse elastography, ARFI) and two-dimensional real-time SWE (Supersonic). For each method usable in NAFLD cases, we will review the method principle, examination technique and performance in NAFLD evaluation.
Keywords: nonalcoholic fatty liver disease, fibrosis, steatosis, noninvasive, elastography


SSI, Fibroscan® or ARFI?

After comparing the performance in the assessment of NAFLD of the three elastographic methods discussed above, we can conclude, on the preliminary results, that the diagnostic performance according to the AUROC values for the diagnosis of significant fibrosis, severe fibrosis and cirrhosis is good for SSI (0.86–0.89); good for Fibroscan® (0.82–0.87) and fair or good for ARFI (0.77–0.84) . The AUROC values for diagnosing severe fibrosis or cirrhosis are particularly good for SSI or Fibroscan® (0.86 and 0.89) [50]. The prediction of steatosis, however, can at this moment only be made using the controlled attenuation parameter measured with Fibroscan®. As for the causes of measurement failure or unreliable results, we mention clinical factors related to obesity (BMI > 30 kg/m2 , waist circumference ≥ 102 cm or increased wall thickness), which are associated with liver stiffness measurement failures when using SSI or Fibroscan® and with unreliable results when using ARFI [50]. In conclusion, SSI, Fibroscan® and ARFI are valuable diagnostic tools for the staging of liver fibrosis in NAFLD patients. However, the diagnostic accuracy of SSI appears to be superior to that of ARFI for the diagnosis of F2 or above. Most of the cut-off values for SSI for the diagnosis of different stages of liver disease are quite similar to those of Fibroscan®; this is an issue of great importance for the applicability of this technique and its wide dissemination among radiologists and hepatologists in their daily practice. However, as for the M probe of Fibroscan®, the SSI technique remains limited by a high failure rate in cases of obesity, whereas ARFI has a high rate of unreliable results.

Thứ Tư, 4 tháng 4, 2018

POCUS helps handle out-of-hospital cardiac arrest


By Kate Madden Yee, AuntMinnie.com staff writer
April 2, 2018 -- Point-of-care ultrasound (POCUS) shows promise as a tool for emergency responders to help predict survival and guide interventions for cardiac arrests experienced outside of the hospital, according to research presented at the recent American Institute of Ultrasound in Medicine (AIUM) meeting in New York City.
POCUS is becoming more commonplace as a tool used for resuscitation of patients in cardiac arrest in the hospital, but there are not much data on its use outside of the hospital setting, presenter Dr. Katherine German of the University of Pittsburgh told session attendees.
"We know that out-of-hospital cardiac arrest survival is low, and we were curious whether point-of-care ultrasound could be a useful tool to predict survival and guide therapy or the decision to transport in the field," German said.
A helpful tool
German and colleagues explored the feasibility of POCUS when used by emergency staff in patients experiencing cardiac arrest outside of hospitals. A portable ultrasound unit (iViz, Fujifilm SonoSite) was used in vehicles as part of the Pittsburgh Emergency Medical Services (EMS) system; all participating physicians received POCUS education and watched an instructional video on how to use the device. Physicians provided radio and in-person consultation to Pittsburgh city paramedics.
The field staff used ultrasound to identify cardiac motion during pulse checks -- without interrupting resuscitation -- and to guide management of the situation at the physicians' discretion. The POCUS users recorded data from still images and six-second video clips, as well as through electronic charting within the patient care report using emsCharts, a tool for air and ground emergency medical personnel.
The study's primary purpose was to track the frequency of POCUS use during out-of-hospital cardiac arrest events; the secondary purpose was to have an expert faculty reviewer analyze images acquired during these events and to identify any barriers to the use of the technology.
German's group included 348 field responses that occurred between November 2016 and March 2017. Of these, 127 were out-of-hospital cardiac arrest. Field doctors used POCUS in 56 (44%) of the out-of-hospital cardiac arrest cases, with 48 (85%) still images and 34 (61%) video images recorded and reviewed.
Agreement between interpretations of emergency responder physicians and those of expert reviewers was found in 91% of video cases. Responders noted the following reasons for not using POCUS:
  • Return of spontaneous circulation (ROSC) close to physician arrival (30%)
  • Emergency personnel busy with other interventions (21%)
  • Provider preference (23%)
  • Mechanical issues (6%)
  • Cessation of resuscitation per advanced directives (6%)
In the field
German did note some of the study's limitations, including the user dependency of ultrasound, as well as the fact that POCUS use was optional and that interpretations were recorded after the technology was used in the field. She also cited the small sample size of video images.
However, overall, POCUS showed promise as a tool for dealing with cardiac arrest in the field, she concluded.

"POCUS use by novice physician ultrasonographers to detect cardiac wall motion in out-of-hospital cardiac arrest is not only feasible, it also correlates with expert interpretation," German said. "Barriers to its use can be addressed through educational interventions and increased familiarity with the device."

Thứ Năm, 29 tháng 3, 2018

Về sử dụng trí tuệ nhân tạo trong phân loại xơ hóa gan của siêu âm

DOWNLOAD 2 bài sau theo link

DEEP LEARNING on LIVER FIBROSIS

https://static.livemedia.gr/livemedia/documents/al22186_us75_20180323092028_op25_icim2018.pdf




DEEP LEARNING on FATTY LIVER [NAFLD]

https://static.livemedia.gr/livemedia/documents/al22186_us75_20180323092030_op26_icim2018.pdf




Như tin bài trước từ AuntMinnie, nhóm nghiên cứu Hy lạp [Greece] dẫn đầu bởi Athanasios Angelakis, PhD, từ National Technical University of Athens, đã tạo một deep neural network có thể  xác định bệnh nhân có đang trong giai doạn sớm gan hóa xơ không hoặc đã hóa xơ gan rõ. Qua kiểm chứng thuật toán này có mức hoàn thiện cao hơn thuật toán [machine learning] đã công bố  trên y văn.
Thuật toán đã công bố chưa có AUC [area under the curvequá 0.87.
Nhóm Athenes, Greece dùng deep learning để phân loại cho dữ liệu của 103 bệnh nhân viêm gan mạn có sinh thiết xác chẩn giai đoạn hóa xơ gan= 62  ca có Metavir scores  F0 hay F1, còn lại 41 ca có scores ít nhất là F2. Mạng deep-learning network sử dụng thông số giới tính và 4 thông số hình thái= dài cắt dọc gan T, thùy đuôi, gan P cũng như lách. Thuật tóan này sẽ đánh giá phân loại hóa xơ gan nhỏ hơn F1 hoặc lớn hơn F 2 (≤ F1 or ≥ F2).

Thông tin này đặc biệt có lợi cho người sử dụng còn thiếu kinh nghiệm về siêu âm tổng quát và siêu âm đàn hồi shearwaves.






Sau khi đánh giá chéo 10 lần, thuật toán deep learning mới về phân loại hóa xơ gan bằng siêu âm này có độ chính xác cao hơn
  • độ nhạy: 90.2%
  • độ chuyên biệt: 91.9%
  • giá trị tiên đoán dương: 88.1%
  • giá trị tiên đoán âm: 93.4%
  • AUC: 0.9126
Tất nhiên bệnh nhân cần được đánh giá thêm thuật toán này. 

Trong tương lai:

Bước cuối cùng của thuật toán deep-learning là cần kết hợp thêm tuổi và giới tính trong phần dân số [demographic data] nghiên cứu, và trong phần morphologic, hemodynamic, biochemical, image analysis,[hình thái, huyết động học, hóa sinh, tạo hình] và dữ liệu siêu âm đàn hồi [elastographic data]. Với thuật toán này, nên có thêm nhiều lớp [layers], không chỉ phân loại hóa xơ gan mà còn về gan thấm mỡ, cao áp tĩnh mạch cửa, và hội chứng viêm.
 Đã có thuật toán và mô hình cho vấn đề gan thấm mỡ .
Deep learning và data science sẽ giữ vai trò quan trọng của siêu âm trong tương lai. Trong 10 năm tới hoặc ít hơn, data science sẽ được cài đặt trong máy siêu âm và sẽ sử dụng ngay trong tiến trình đánh giá siêu âm gan. 
----------------
ĐỌC THÊM=


https://tech.fpt.com.vn/ai-machine-learning-va-deep-learning-dinh-nghia-va-cach-phan-biet-chung/


  1. Trí tuệ nhân tạo (artificial intelligence - AI) giờ xuất hiện ở khắp mọi nơi. Nó là thứ được sử dụng để trả lời email tự động trên Gmail, học cách lái xe cho chúng ta ngồi chơi, sắp xếp lại ảnh của những chuyến đi chơi thành từng album riêng biệt, thậm chí còn giúp quản lý ngôi nhà hay đi mua sắm nữa. Nhưng bạn có biết là trí tuệ nhân tạo không chỉ đơn giản là một thực thể mà nó còn được chia thành nhiều loại nhỏ hơn? Những hạn chế hiện tại của sản phẩm trí tuệ nhân tạo là gì? Và vì sao chúng ta không cần (hay chưa cần) phải lo lắng về việc trí tuệ nhân tạo bùng lên chiếm lấy thế giới?

    Neural networkmachine learningdeep learning là gì?

    Đây là những cụm từ mà bạn rất thường hay thấy trong những thông tin liên quan đến trí tuệ nhân tạo. Về cơ bản, bạn có thể nghĩ về những thứ này như các lớp cấu thành trí tuệ nhân tạo.

    Neural network, tạm gọi là mạng lưới thần kinh nhân tạo, sẽ nằm dưới cùng. Đây là hệ thống các máy tính và thiết bị hệ thống điện toán nói chung được kết nối theo một cách nào đó để mô phỏng lại một phần cách hoạt động của các nơ-ron thần kinh trong não người. Những chiếc máy tính trong neural network có thể nằm gần nhau trong cùng một phòng hay cách xa nhau cả nghìn cây số, mỗi một chiếc máy tính trong đó có thể được xem như một đơn vị thần kinh, gọi là node.

    Cập nhật: Neural network không nhất thiết phải dựa trên phần cứng, nó vẫn có thể là phần mềm và các giải thuật.

    Khái niệm về neural network đã có từ những năm 1950 với sự ra đời của ngành nghiên cứu về trí tuệ nhân tạo. Người ta nói rằng khi nằm riêng biệt, những node máy tính này chỉ chạy những gì được lập trình sẵn và chỉ có thể trả lời những câu hỏi đơn giản, hay nói cách là nó "không thông minh". Cũng giống như trong cơ thể người, một nơ-ron không chưa làm nên chuyện, nhưng khi kết nối chúng thành một mạng lưới dày đặt thì mọi chuyện sẽ khác đi rất nhiều. Khi các hệ thống máy tính được nối lại với nhau, chúng có thể giải quyết những vấn đề khó khăn hơn. Và quan trọng nhất, khi áp dụng đúng thuật toán, người ta có thể "dạy học" cho máy tính.

    Lớp kế tiếp là machine learning. Từ này mình không biết nên dịch sang tiếng Việt như thế nào cho chính xác nên tạm thời cứ để nguyên tiếng Anh. Đây là một chương trình chạy trên neural network, nó sẽ làm nhiệm vụ huấn luyện máy tính để "học hỏi" một vấn đề gì đó, ví dụ như học hỏi từ hàng nhìn mẫu chữ viết tay của người dùng để đoán xem đó là kí tự gì, hoặc học từ hàng nghìn bức ảnh chụp bãi biển để tìm ra điểm chung và sau đó nhìn phát là biết ngay tấm này chụp biển chứ không phải chụp núi.

    Deep learning nằm ở trên cùng, cũng không biết dịch ra tiếng Việt như thế nào. Đây là một nhánh đặc biệt của ngành khoa học machine learning. Deep learning trở nên phổ biến trong thập kỉ gần đây nhờ vào sự gia tăng nhanh chóng của lượng dữ liệu số mà loài người tạo ra, ngoài còn nhờ sức mạnh xử lý của máy tính gia tăng trong khi giá thành giảm xuống. Sẽ nói kĩ hơn về deep learning ở bên dưới.

    Trí tuệ nhân tạo hoạt động ra sao?

    Giả sử như bạn muốn một cái máy tính biết cách băng qua đường. Theo cách truyền thống, chúng ta sẽ lập trình cho nó cách nhìn trái, nhìn phải, cách đợi xe chạy qua hết, cách đi đúng vạch băng đường theo luật và nhiều thứ khác, sau đó để cho máy tự đi.

    Còn với kĩ thuật trí tuệ nhân tạo, mà cụ thể là một chương trình machine learning, bạn sẽ cho máy tính xem 10.000 đoạn video về cách băng đường an toàn. Kế tiếp bạn lại cho nó xem thêm 10.000 đoạn video nữa nhưng lần này chiếu cảnh người ta bị xe tông khi băng đường ẩu. Lúc này bạn mới thả cho nó tự băng đường.

    Đang tải google_self_driving_car.0.gif… ​

    Phần khó nhất đó là bạn phải làm sao cho máy tính hiểu và tiếp thu được thông tin từ các video này, cũng giống như phần khó nhất khi đi dạy học là phải làm cho học sinh hiểu được bạn nói gì và ghi nhớ điều đó. Trong nhiều thập kỉ qua, người ta đã thủ nhiều phương pháp khác nhau để dạy cho máy tính học. Một trong những cách đã được xài đó là "reinforcement learning", tức là bạn sẽ "thưởng" cho máy tính khi nó làm đúng thứ bạn muốn rồi từ từ tối ưu để đạt kết quả tốt nhất. Người ta vẫn thường hay huấn luyện thú vật theo cách này. Một cách khác nữa là "chọn lọc tự nhiên", tức là nhiều cách giải quyết cùng một vấn đề sẽ được áp dụng cho chạy song song, cái này giải được nhanh và chính xác nhất sẽ thắng những cái còn lại.

    Còn trong thời đại ngày nay, người ta xài một phương pháp gọi là deep learning. Deep learning sử dụng nhiều lớp trong một neural network để phân tích dữ liệu theo nhiều khía cạnh khác nhau. Ví dụ, nếu bạn đưa cho máy tính học một tấm ảnh theo kĩ thuật deep learning, mỗi lớp trong mạng lưới thần kinh nhân tạo này sẽ nhìn nhận vấn đề theo một cách riêng. Lớp dưới cùng sẽ chỉ đơn giản là vẽ ra một cái lưới 5x5 lên tám ảnh và đánh dấu "có" hoặc "không" khi có một đối tượng xuất hiện trong ô. Nếu "có", lớp bên trên sẽ bắt đầu nhìn vào từng ô này một cách kĩ càng hơn, nó phân tích xem đây có phải là điểm đầu của một đường thẳng không, hay đây là một cái góc nghiêng? Thật nhiều lớp như thế sẽ giúp phần mềm hiểu được những vấn đề phức tạp, tất cả đều dựa trên các bẻ nhỏ nó ra rồi "điều tra" từ từ. Cũng chính vì lý do này mà người ta gọi đây là "deep", tức là sâu và có nhiều lớp.

    Đang tải DeepFace.jpg…
    Kĩ thuật được Facebook áp dụng để nhận diện gương mặt, trong đó chia bức ảnh thành lớp khác nhau để học hỏi

    Yann LeCun, trưởng bộ phận trí tuệ nhân tạo của Facebook, cho biết: "Khi bạn đi lên các lớp cao hơn thì những thứ được phát hiện sẽ càng lúc càng rộng hơn. Càng lúc càng có nhiều khía cạnh hơn được phân tích. Và khi bạn leo lên đến lớp cao nhất, bạn sẽ có những công cụ để cho bạn biết bức hình đó đang chụp người hay một chút chó hay một chiếc máy bay".

    Nãy giờ chúng ta chỉ mới nói đến chuyện nhận biết, giờ thì đến lúc dạy cho máy tính biết thứ mà nó vừa nhận ra là gì. Một hệ thống neural network lại được sử dụng, nhưng lần này nó sẽ xem xét nhiều đặc điểm của một con mèo. Rất nhiều bức hình chụp mèo cũng sẽ được đưa cho hệ thống xem kèm theo lời dặn: đây là ảnh con mèo đó nha. Rồi người ta lại cho máy xem thêm một loạt ảnh khác nữa chụp chó, heo, gấu, vịt và dặn: đây không phải là con mèo. Thông qua hàng loạt dữ liệu như vậy, phần mềm sẽ biết được những con mèo thường có điểm chung gì, móng, lông, tay chân, đầu, đuôi của chúng ra sao thì mới được gọi là mèo...

    Theo thời gian, máy sẽ ghi nhớ những dữ liệu này và sắp xếp theo thứ tự quan trọng. Ví dụ, móng vuốt không chỉ mèo mới có, nhưng nếu móng đi chung với bàn chân to và ria mép thì đây đích thị là con mèo. Các mối liên hệ như thế này cũng sẽ được cung cấp theo thời gian trong quá trình phần mềm machine learning học hỏi các ảnh. Quy trình này diễn ra trong thời gian dài và lặp đi lặp lại nhiều lần. Cứ lần sau nó sẽ tốt hơn lần trước vì được góp ý từ con người hoặc thậm chí là từ những hệ thống trí tuệ nhân tạo khác.

    Bạn có thể thấy rằng chỉ để nhận biết được một con mèo thôi đã phức tạp quá chừng, trong khi các hệ thống machine learning của Facebook, Google hay Microsoft phải nhận biết nhiều thứ khác nữa trong đời sống. Thế nên, việc Microsoft tự hào khi phát hành một ứng dụng có khả năng nhận biết các giống chó khó nhanh nghe có vẻ đơn giản nhưng phía sau nó là cả một mạng lưới thần kinh nhân tạo phức tạp và đã bắt đầu chạy học hỏi trong thời gian rất dài rồi.

    Đang tải dogknight_3346130k.0.jpg…
    Hình ảnh được tạo ra từ dự án trí tuệ nhân tạo Google Drea

    Đây có phải là thứ mà Google, Facebook và nhiều công ty khác đang sử dụng?

    Câu trả lời chung sẽ là "Đúng rồi".

    Deep learning hiện tại đang được xài cho nhiều tác vụ khác nhau. Các công ty công nghệ lớn thường lập riêng một bộ phận trí tuệ nhân tạo. Google, Facebook còn mở những hệ thống phần mềm machine learning của mình ra cho mọi người sử dụng. Google hồi tháng trước cũng mới mở một khóa học kéo dài 3 tháng vè machine learning và deep learning.

    Một vài ví dụ về machine learning đó là công cụ Google Photos. Nó có khả năng nhận biết và phân loại hình ảnh mà bạn chụp theo từng chủ đề khác nhau, thậm chí là theo từng khuôn mặt khác nhau một cách tự động. Hay Facebook M, một trợ lý ảo cá nhân nửa người nửa máy có thể giúp bạn đặt một số món hàng mà bạn muốn. Microsoft với Cortana, Google với Google Now và Apple với Siri đều là những ví dụ rất thực của trí tuệ nhân tạo.

    Đây cũng là lý do vì sao mà trong thời gian gần đây chúng ta bắt đầu nghe nói nhiều về machine learning, deep learning và trí tuệ nhân tạo. Đó là vì các hãng tiêu dùng lớn đã bắt đầu nhảy vào cuộc chơi và đưa ra những sản phẩm thực tế mà người ta có thể cầm nắm và trải nghiệm. Trước đó, deep learning và machine learning chỉ nằm trong các phòng thí nghiệm ở những viện nghiên cứu và trường đại học mà thôi.

    Hạn chế của trí tuệ nhân tạo hiện nay

    Deep learning đang được sử dụng cho những thứ như nhận dạng giọng nói và nhận dạng hình ảnh, những thứ có nhiều tiềm năng thương mại hóa. Nhưng song song đó, nó cũng còn nhiều hạn chế.

    Đầu tiên, deep learning cần một lượng dữ liệu đầu vào khổng lồ để máy tính có thể học hỏi. Quy trình này mất nhiều thời gian, nhiều sức mạnh xử lý mà chỉ có các server cỡ lớn mới làm được. Nếu không có đủ dữ liệu đầu vào, hay có đủ dữ liệu nhưng không đủ sức mạnh để xử lý, thì mọi thứ không thể diễn ra đúng như ý định, kết quả do máy học sẽ không chính xác.

    Thứ hai, deep learning vẫn chưa thể nhận biết được những thứ phức tạp, ví dụ như các mối liên hệ thông thường. Chúng cũng sẽ gặp khó khăn khi cần nhận biết những thứ tương tự nhau. Lý do là vì hiện chưa có kĩ thuật nào đủ tốt để trí tuệ nhân tạo có thể rút ra những kết luận đó một cách logic. Bên cạnh đó, vẫn còn nhiều thách thức trong việc tích hợp kiến thức trừu tượng vào các hệ thống machine learning, ví dụ như thông tin về vật đó là gì, nó dùng để làm gì, người ta hay xài nó làm sao... Nói cách khác, machine learning chưa có được những kiến thức thông thường như con người.

    Một ví dụ rất cụ thể cho các bạn dễ hiểu: trong một dự án của Google, một mạng lưới thần kinh được sử dụng để tạo ra bức ảnh của một quả tạ mà người ta hay cầm tập trong phòng gym. Kết quả đưa ra khá ấn tượng: hai vòng tròn màu xám được kết nối bằng một cái ống ngang. Nhưng ở giữa cái ống này còn có cánh tay của con người, và đây không phải là thứ nằm trong "đề bài". Lý do thì khá là dễ đoán: hệ thống được dạy về quả tạ bằng những tấm hình chụp người ta đang cử tạ, vậy nên dính tay người vào là chuyện hiển nhiên. Hệ thống có thể biết được quả tạ ra sao, nhưng nó không biết là quả tạo sẽ không bao giờ có cánh tay cả.

    Đang tải dumbbells.0.png… ​

    Với một số bức hình đơn giản hơn nhưng mahcine vẫn nhầm lẫn. Thử nghiệm của một nhóm nhà nghiên cứu cho thấy rằng khi họ đưa máy tính xem một loạt ảnh chỉ có các pixel ngẫu nhiên nhưng máy lại chắc chắn đây 95% là một cái... xe tải, hay là một con sao biển...

    Đó chưa phải là tất cả. Theo lời của nhà khoa học máy tính Hector Levesque, những công cụ trí tuệ nhân tạo hiện nay sử dụng nhiều "mánh" để xóa đi những lỗ hổng thật sự trong kiến thức của chúng. Các trợ lý ảo như Siri hay Cortana thường làm cho bạn có cảm giác bạn đang nói chuyện với người thật vì chúng sử dụng các câu nói đùa, câu trích dẫn, các biểu hiện cảm xúc và nhiều thứ khác, cốt chỉ để bạn phân tâm.

    Bạn hãy thử hỏi những thứ cần đến suy nghĩ thông thường, ví dụ như "con cá xấu có lái xe được không" hay "một cầu thủ đá banh có được phép gắn cánh để bay hay không". Các câu hỏi dạng này quá phức tạp với những hệ thống trí tuệ nhân tạo hiện nay nên thường sẽ không có kết quả nào được trả về cho bạn, nếu có cũng là những thứ không liên quan hay chỉ đơn giản là search câu nói của bạn trên Internet.

    Mùa đông AI

    Ngành khoa học trí tuệ nhân tạo là một ngành dễ lên nhưng cũng dễ xuống. Năm 1958, tờ New York Times từng nói về một chiếc máy có khả năng phân biệt bên trái và bên phải như là một dạng mầm sống của robot thông minh. Nhưng đến nay, chúng ta vẫn chưa thể tạo ra được một con robot nào có trí thông minh đến vậy. Và khi những lời hứa hẹn đó không được thực hiện, người ta dùng từ "mùa đông AI". Đó là giai đoạn mà lượng tiền đầu tư cho AI giảm mạnh, ít còn ai nhắc về nó, và người ta cũng tỏ ra hoài nghi về những kết quả có thể đạt được. Tính đến nay đã có khoảng 6 "mùa đông AI" nhỏ và 2 mùa lớn từng xuất hiện, vào cuối những năm 70 và đầu các năm 90.

    Trí tuệ nhân tạo có tri giác?

    Nhiều người đang làm việc trong ngành trí tuệ nhân tạo cho rằng chúng ta sẽ rất khó để tạo ra một trí tuệ nhân tạo có tri giác. "Có rất ít bằng chứng ở thời điểm hiện tại cho thấy hi vọng về việc tạo ra một trí tuệ nhân tạo có tính linh hoạt cao và làm được những thứ mà chúng không được tạo ra để thực hiện", theo lời giáo sư Andrei Barbu từ đại học MIT. Ông nhấn mạnh việc nghiên cứu trí tuệ nhân tạo hiện nay chỉ tạo ra được những hệ thống được tối ưu để giải quyết một vấn đề cụ thể mà thôi.

    Cũng đã có một số công trình nghiên cứu về việc cho máy tính học nhưng không cần sự giám sát, tức là cứ đưa dữ liệu cho máy học mà không dán nhãn đúng sai hay giải thích gì cả. Tuy nhiên, Andrei Barbu nhận xét những dự án như thế này vẫn chưa có tiến triển nào và vẫn còn rất xa xời để đến được ngày có kết quả. Một ví dụ đã từng xuất hiện đó là một hệ thống neural network của Google đã từng lấy ngẫu nhiên ảnh thumbnail của 10 triệu video trên YouTube để tự dạy mình con mèo trông giống như thế nào. Thế nhưng, Google nói đây chỉ là một thử nghiệm và không nói gì về độ chính xác của nó cả.

    Nói cách khác, chúng ta vẫn chưa biết cách làm cho máy tính tự học mà không cần giám sát. Đó là rào cản lớn nhất. Tức là vẫn còn rất xa mới tới cái ngày mà robot có tri giác và đánh trả lại con người :D

    Như Elon Musk đã nói, công ty ông có tạo ra một trí tuệ nhân tạo cho tính năng tự lái xe trên những chiếc Tesla. Nhưng ông chưa bao giờ nói rằng nó sẽ biết hết mọi thứ. Đây chỉ đơn giản là một mạng lưới giúp các xe học hỏi lẫn nhau. Khi một chiếc này học được điều gì thì những chiếc khác cũng biết điều tương tự. Kết quả cuối cùng không phải là những chiếc xe có thể làm mọi thứ trên đời, nó chỉ để giải quyết một vấn đề rất cụ thể mà thôi.

Thứ Tư, 28 tháng 3, 2018

AIUM: Can deep learning classify liver fibrosis on US?


By Erik L. Ridley, AuntMinnie staff writer
March 26, 2018 -- NEW YORK CITY - A deep-learning algorithm that analyzes B-mode morphological ultrasound data and patient demographic information can classify the severity of liver fibrosis in cases of chronic liver disease, according to research presented at the American Institute of Ultrasound in Medicine (AIUM) conference.
A team of researchers from Greece trained a deep neural network that could determine if patients were in the early stages of fibrosis or if they had advanced to significant fibrosis. In testing, the algorithm yielded a higher level of performance than existing methods previously reported in the literature, according to presenter Athanasios Angelakis, PhD, from the National Technical University of Athens.
A binary classification problem
Early-stage fibrosis can be reversed with treatment and prevented from reaching cirrhosis. It's also important to be able to diagnose significant fibrosis, classified as Metavir score F0 or F1, from more severe fibrosis (≥ F2).
"Given an individual's biomarkers, we would like to conclude if his or her fibrosis stage is either [Metavir score] ≤ F1 or ≥ F2," he said in a March 24 presentation "It's a significant binary classification problem."
Traditional methods used for this assessment include biopsy; biochemical tests; imaging, such as shear-wave elastography, strain elastography, and FibroScan transient elastography cutoff values; as well as image analysis or radiomic approaches. Recently, machine learning has also been applied in image analysis and radiomics. However, none of the biochemical, imaging, image analysis/radiomics, or machine-learning methods reported in the literature has yielded an area under the curve (AUC) from receiver operating characteristic analysis of more than 0.87, according to Angelakis.
The researchers sought to apply deep learning to this classification task. They used a dataset of 103 patients with chronic liver disease and biopsy-validated fibrosis stages; 62 patients had Metavir scores of F0 or F1, while 41 had scores of at least F2. The deep-learning network was given one demographic parameter (patient gender) and four morphologic parameters -- the longitudinal diameter of the left lobe, caudate lobe, and right lobe of the liver, as well as the spleen. The algorithm then provides its assessment of the patient's fibrosis class (≤ F1 or ≥ F2).
This information could be of particular benefit to inexperienced users, according to the researchers.
"It reduces the experience [needed] for the examiner [to perform these studies]," Angelakis said. "One of the goals of using deep learning in ultrasound in general and shear-wave elastography is to reduce this need for experience with the exam."
After performing tenfold cross-validation, the researchers found that the algorithm yielded a high level of accuracy for liver fibrosis classification:
  • Sensitivity: 90.2%
  • Specificity: 91.9%
  • Positive predictive value: 88.1%
  • Negative predictive value: 93.4%
  • AUC: 0.9126
They acknowledged, though, that more patients are needed to further validate the algorithm.
The future
The ultimate holy grail for a deep-learning algorithm in the liver would be to incorporate patient demographic data such as gender and age, along with morphologic, hemodynamic, biochemical, image analysis, and elastographic data. Such an algorithm, which would have many layers, would not only classify fibrosis but also steatosis, portal hypertension, and inflammation, Angelakis said.
"We have already created algorithms and models that also attack the steatosis problem, because our datasets are bigger now," he said.
Deep learning and data science will likely take on a significant role in ultrasound in the future, according to Angelakis.

"The output from the [deep-learning] model will be one more input for the expert [to consider during interpretation]," he said. "That is how we reduce the expertise [requirement] for the reader. Looking ahead 10 years from now, maybe less, data science will also be used during the manufacturing of ultrasound devices and it will be in every [aspect of the ultrasound acquisition and interpretation process].